sobota, 21 lipca 2012

Co będzie za 3 lata? część druga: Użytkownik biznesowy 2015...

Użytkownik biznesowy 2009 roku
Standardem była praca na laptopach 13.3"-15", ale stacjonarni pracownicy wciąż otrzymywali komputery biurkowe zazwyczaj formatu microATX z monitorem LCD 17-19". Standardem był 1GB RAM, dyski rzędu 160GB oraz procesory z rodzin Core2 Duo / Quad. Były to czasy WiFi 802.11g oraz modemów HSPDA w formie ExpressCard.
Trzy lata temu dzięki cztero-rdzeniowym procesorom zupełnie nowe możliwości otworzyły się dla zastosowań inżynierskich i graficznych. Kosztem porównywalnym do mocnej konfiguracji dla graczy można było nabyć komputer, który dorównywał lub przewyższał parametrami dawne stacje robocze. Ponieważ w owym czasie  gwałtownie wzrastało zapotrzebowanie na treści graficzne (w tym 3D), to stało się to prawdziwą okazją dla małych i średnich firm. Niestety oprogramowanie dla profesjonalistów wciąż w niewielkim stopniu potrafiło działać wielowątkowo. Poza zupełnie oczywistymi problemami jak ray-traycing, kompresja/de-kompresja mediów czy masowo równoległe obliczenia (np. Folding@home) trudno było wykorzystać aż cztery fizyczne rdzenie. Podobnie rozmiar pamięci RAM ograniczony był do 4 lub 8GB (DDR2 i DDR3), co wymagało starannego planowania większych projektów graficznych.
Wtedy niepodzielnie rządził Windows XP SP3, pracujący w domenie Windows 2003 AD. W większości przypadków mobilni użytkownicy korzystali z grubych klientów współpracy grupowej (Lotus Notes, MS Outlook) i łączyli się z sieciami korporacyjnymi za pomocą tuneli VPN IPSec (nierzadko używające certyfikatów i kart inteligentnych).
W owym okresie szefowie IT wiedzieli już, że kluczowe aplikacje biznesowe muszą być webowe, aby można było zapanować nad "galimatjasem" zmian biznesowych i ograniczeń technologicznych. Pamiętam, że większość głównych aplikacji ERP była już wtedy dostępna w wersjach z lekkim interfejsem. Powoli przekonywaliśmy się też jak duże znaczenie ma zgodność, wydajność i bezpieczeństwo przeglądarek. IE6 stawał się już kłopotliwy nawet dla aplikacji biznesowych.
Znaczącym elementem krajobrazu były urządzenia klasy PDA wyposażone w WinCE 5/6, które za pomocą transmisji pakietowej replikowały dane z aplikacjami w sieciach firmowych. Nierzadko aplikacje mobilne były przedłużeniem systemów ERP (szczególnie sprzedaż w terenie i logistyka).
Sam użytkowałem HTC TyTN II z Windows Mobile 6.0, replikując kontakty, kalendarz, emaile z Lotus Domino z użyciem oprogramowania firmy trzeciej po połączeniu EDGE / UMTS i HSPDA. Użytkowałem tam również AutoMapę i pocket Office. Nie była to gładka eksploatacja. :-)

Użytkownik biznesowy 2012 roku
Ostatnie trzy lata upłynęły nam bardziej pod znakiem ewolucji niż rewolucji w PeCetach. Więcej użytkowników korzysta obecnie z laptopów, pracujących pod Windows 7 x64. Notebooki stały się cieńsze, lżejsze i pozbyły się napędów optycznych. 
Żyjemy teraz w rzeczywistości układów wykonanych w procesie litograficznym  32nm (Intel Arrandale / Sandy Bridge), zazwyczaj dwurdzeniowych, ~2GB RAM, dysków HDD 320-750GB lub SSD 64-256GB, kart sieciowych 802.11n oraz modemów wbudowanych Mini PCI-E lub USB 2.0. Ciekawostką jest niemała popularność wśród nomadycznych pracowników mobilnych routerów HSPA <-> WiFi zasilanych z akumulatora.
Ku uciesze administratorów znakomita większość aplikacji biznesowych jest już webowa, a IE6 już prawie odeszło w zapomnienie - Firefox i Chrome stanowią silną przeciwwagę dla IE, a zdrowa konkurencja wymusiła kompatybilność i poprawę wydajności, sprawności bezpieczeństwa. 
Obserwuję zdecydowaną migrację w kierunku SSL/TLS VPN w zdalnym dostepie. Standardem stało się ograniczenie oprogramowania klienckiego do pakietu biurowego, klienta bezpieczeństwa (antywirus, zgodność, ogniomurek itd.) i standardowych przeglądarek (PDF, podpisy elektroniczne, szyfrowana zawartość) - reszta dostępna jest poprzez HTTPS.
Muszę podkreślić, że coraz więcej firm promuje BYOD - akceptując pracę na prywatnym, niestandardowym sprzęcie w sieciach korporacyjnych. Oczywiście jest to możliwe tylko dzięki starannemu zarządzaniu dostępem do webowych aplikacji biznesowych oraz odpowiednio dobranych konfiguracji sieci ograniczonego zaufania. W takich scenariuszach standaryzacja kończy się na zestawie usług sieciowych prezentowanych różnorodnym klientom.
Ku memu zaskoczeniu sporo się zmieniło po stronie stacjonarnych stanowisk. Coraz większą popularnością cieszą się platformy formatu Mini-ITX, które służą jako swego rodzaju "hybrydowy" cienki klient (często nawet na Intel Atom lub AMD Bobcat). Przeglądarki i klient terminalowy pracują lokalnie, a ciężkie aplikacje są wirtualizowane. Mamy coraz mniej oprogramowania lokalnego - sam mam przyjemność korzystać z podstawowego tylko zestawu aplikacji biurowych zaś wszystkie dodatkowe mam udostępnione za pomocą wirtualizacji aplikacji (obraz okien aplikacji jest strumieniowany przez RDP z serwera, wtapiając się pomiędzy okna lokalnych aplikacji). W większości przypadków dane użytkownika stacjonarnego są domyślnie przechowywane na serwerze. Takie środowiska pracy podlegają już surowej kontroli i standaryzacji.
Tymczasem profesjonalne stacje robocze wyraźnie podzieliły nam się na: 
  • tańsze - będące rozwinięciem platform podstawowych (4 rdzenie, dwa kanały pamięci, jak np. Core i3-21xx do 32GB RAM), 
  • mobilne - większe i cięższe, ale wydajne i pojemne laptopy 15-17" (oparte na 4-rdzeniowych CPU, jak np. Core i7-36x0Q do 32GB RAM) oraz 
  • wysokowydajne - bazujące na architekturze jedno-rdzeniowych serwerów (6 rdzeni, cztery kanały pamięci, jak np. Core i7-39x0 do 64GB RAM).
Największa rewolucja dla wydajności w ostatnich latach to wejście SSD w formie dysków 2,5" oraz kart PCI-E, co otworzyło przed małymi firmami nowe możliwości w zakresie obsługi złożonych projektów czy przetwarzania wideo. Oczywiście rozwój zapisu prostopadłego w dyskach HDD również pchnął pojemności urządzeń, co pozwoliło firmom wyposażać użytkowników w kilku-terabajtowe obszary robocze przy zachowaniu rozsądnych kosztów. Standardem wśród mocniejszych stacji stało się używanie po jednym dysku SSD na system operacyjny i obszar roboczy (bieżący projekt) i jeden lub więcej dysk 1TB+ na bibliotekę plików. 
Oprogramowanie graficzne i inżynierskie ewoluowało, aby umożliwić wykorzystanie wielowątkowości do tego stopnia, że co najmniej dwa rdzenie są wykorzystywane ciągle. Dzięki wykorzystaniu HyperThreading profesjonaliści mają do dyspozycji nawet do 12 potoków przetwarzania i niektóre narzędzia potrafią je zająć. 
To jeszcze nie wszystko na polu innowacji - mamy co najmniej kilka nowości na polu oprogramowania, ponieważ:
  • GPGPU zaczęło być wykorzystywane poprzez interfejsy CUDA, DirectCompute lub OpenCL
  • nowe instrukcje SSE są wykorzystywane dla skrócenia operacji na macierzach
  • QuickSync gwałtownie skrócił kompresję / dekompresję wideo
  • AES-NI umożliwił używanie szyfrowania AES bez utraty wydajności
Wszystko to sprawia, że granice wykonalności projektów graficznych, CAD, obliczeniowych przesunęły się znacznie dalej.
Nieoczekiwanie nawet do naszych laptopów wkradła się wirtualizacja. Ponieważ wiele rozwiązań dostarczanych jest w formie obrazów maszyn wirtualnych, to znajomi inżynierowie posiadają zwykle co najmniej jeden hypervisor. Z uwagi na ograniczone zasoby maszyn takie włączane są zamiennie z lokalnymi aplikacjami.
Tradycyjne biznesowe telefony komórkowe jako takie zniknęły już z rynku. Praktycznie każdy z aparatów jest smartphone'em w szerszym tego słowa znaczeniu. W mojej ocenie brakuje na rynku stabilnej i niezawodnej platformy mobilnej dla biznesu. Doszło do przemieszania funkcji korporacyjnych z konsumenckimi. Nie każda firma jest jak HP, aby móc narzucać swoim pracownikom WebOS, nad którym ma pełną kontrolę.
Z jednej strony widzę zanik prawdziwych aplikacji mobilnych dla biznesu wraz ze schyłkiem rozwoju rodzin Win CE, SymbianOS oraz BlackBerry OS, a z drugiej migrację firm do aplikacji webowych, o interfejsie graficznym dostosowanym nawet do przeglądarek mobilnych - opartych na WebKit (iOS, Android) lub Internet Explorer Mobile 7+.
Wreszcie ... w 2010 na scenę wkroczyły tablety, które są obecnie w zasadzie smartphone'em z dużym ekranem. Triumfalny pochód iPada miał początkowo charakter czysto konsumencki i podobnie sytuacja wyglądała na rynku urządzeń opartych na Androidzie. Tablety oparte na Windows 7 okazały się za ciężkie, zbyt wolne i za drogie. HP TouchPad - pierwszy biznesowy tablet - został wycofany ze sprzedaży zanim jeszcze firmy zdążyły się podrapać po głowie zastanawiając się, jak je wykorzystać. Widzę sporą presję marketingową na wykorzystanie iPadów w biznesie (szczególnie takim, który jest czuły na prestiż), ale realna liczba przypadków użycia jest mocno ograniczona (głównie prezentacja materiałów). 
Osobiście rozmawiałem z użytkownikiem ASUS EeePad Infinity z klawiaturą (dock), który wybrał się z USA do Europy tylko z tym urządzeniem. Był zmęczony kłopotami z edycją dokumentów MS Office, kompatybilnością niektórych stron web oraz niewygodą minimalistycznych aplikacji typu notes czy kalendarz. Oprogramowaniu wiele brakuje do użyteczności dojrzałych platform - trzeba pamiętać, że to tylko smartphone. Pomysł jest dobry, ale wykonanie wymaga poprawek.

Użytkownik biznesowy 2015 roku
Ostatnie trzy lata upłynęły nam pod znakiem marnych matryc TN o rozdzielczości 1366x768 i gęstości 90-130dpi. Niedawne premiery urządzeń Apple, ASUS czy SONY wyraźnie pokazują, że jakość ekranu ma znaczenie. Uważam, że 1920x1200 matryc klasy e-IPS ma szansę stać się standardem dzięki wsparciu wysokich gęstości przez MacOS i Win8.
Kolejną dużą zmianą, jakiej się spodziewam jest transformacja laptopów w tablety z dołączaną klawiaturą (patrz premiery ASUSa), co wbrew pozorom nie stanowi dużego wyzwania technologicznego, o ile zakładamy umiarkowany apetyt na wydajność GPU i pojemność pamięci masowej.
Spodziewam się też, że upowszechni się tryb czuwania z połączeniem, który sprawi, że nie ominie nas żaden ważny e-mail ani komunikat. Przyszłe platformy powinny być w stanie aktywnie czuwać nawet kilka dni i wracać do pełnej gotowości w ciągu kilku sekund.
Uważam, że biura będą korzystały tylko z 802.11ac w dostępnie do sieci LAN, opartych tylko na IPv6 (prawdopodobnie w pasmie 5GHz, ale tylko jeden strumień).
Uważam, że w biurach i salach konferencyjnych zastosowanie znajdą duże wyświetlacze o wysokiej rozdzielczości, które będą z łatwością parowały się z laptopami/tabletami dla wyświetlania zawartości, zaś w wolnym czasie będą wyświetlały video-feeds marketingowe.
Schodząc jednak na ziemie... już następna generacja komputerów PC - ta na 2013 rok - będzie korzystać z hybrydowej pamięci masowej (głównie dzięki Intel Smart Response Technology) w konfiguracji mSATA SSD i HDD SATA. Oczekuję rychłej wymiany pamięci NAND flash na inną - bardziej niezawodną technologią (jak PCM lub ReRAM). 
Przewiduję dalszą integrację układów laptopów/tabletów aż do podziału na SoC, pamięć i interfejsy - zaś Haswell będzie pierwszym krokiem w tym kierunku. Myślę, że dobrym przybliżeniem przyszłości wyposażenia użytkownika biznesowego w przyszłości jest MS Surface Pro, ale raczej nie od samego Microsoft, lecz od innych graczy rynkowych. 
Największe zmiany czekają nas po stronie integracji urządzeń. Myślę, że za 3 lata faktycznie będziemy mieć dostęp do tych samych danych w smartphone, laptopie/tablecie i na biurku. Kluczowe dla biznesu okażą się metody łatwego dokowania i synchronizacji danych. Wierzę, że zobaczymy odpowiedniki telefonów i laptopów pracujące albo pod zbliżonym OS lub blisko zintegrowane za pomocą zestandaryzowanych interfejsów (Windows Phone z Windows, albo iOS z MacOS albo Android z Linux?). 
Same "telefony" będą znacznie wydajniejsze i będą miały sporo "ciemnych" części układów scalonych włączanych według potrzeb. Sądzę, że domyślnie będziemy używać tylko LTE, po którym będziemy realizować wszystkie niezbędne połączenia.  Sporo może się zmienić w zakresie mobilnych wyświetlaczy, bo nowe, elastyczne OLEDy mogą zupełnie zmienić oblicze naszych "komórek" - trudno przewidzieć, co będziemy nosić w kieszeni za kilka lat.
Następna innowacja ze świata tabletów - interfejs wielodotykowy - będzie miał raczej wyboistą drogę przed sobą. O ile interfejs Windows Metro i aplikacje MS Office 2013+ będą w stanie pracować dotykowo, to pozostanie duża grupa aplikacji biznesowych nie przystosowanych do tego typu interakcji. Moje bliskie dwu-letnie doświadczenia w pracy z tabletami pokazały jak wiele barier użytkowych czeka na nas na portalach internetowych. Wszelkie mechanizmy interakcji oparte rozróżnianiu zdarzeń "onmouseover" od "onmouseclick" są obecnie ślepą uliczką przy manipulacji jedynie dotykiem. Kolejnym ograniczeniem będą przyzwyczajenia bardziej doświadczonych użytkowników. Prawdopodobnie produktywność będzie znacznie wyższa przy pracy z klawiaturą i płytką dotykową. Dotykowy ekran będzie raczej uzupełnieniem (przeglądanie treści, manipulacja perspektywą).
Wygląda na to, że rozwiązania do zarządzania tożsamością zostaną wreszcie zaprzęgnięte do pracy w pełnym zakresie, aby upewnić się, że nawet w scenariuszach BYOD pracownicy gładko będą mogli przełączać się pomiędzy swoimi urządzeniami z użyciem dokumentów, głosu, chatu, wideo i współdzielenia prezentacji. Aplikacje będą dostępne dla użytkowników tylko i wyłącznie w trybie "Store", podlegając automatycznej aktualizacji. Spodziewam się wachlarza rozwiązań od prostych aplikacji lokalnych, przez strony web aż po grube aplikacje strumieniowane do urządzenia klienckiego.
Obserwując trendy zmian w systemach otaczających mnie korporacji spodziewam się zbliżenia do realizacji koncepcji SOA, w formie "strawialnej" dla zaawansowanych użytkowników. Myślę, że zobaczymy realizację mash-up w zupełnie nowej odsłonie - znacznie łatwiejsze w obsłudze.
Myślę, że względnie najmniejsze zmiany czekają stacje robocze. Stopniowo będzie malał ich udział w rynku, zaś ich wydajność i pojemność będzie rosła. Możliwe, że zobaczymy stacje robocze w formie All-In-One, a także laptopy dokowane do stacji zawierającej dGPU / akcelerator obliczeniowy (np. Xeon Phi), dodatkową pamięć masową, wiele wyświetlaczy i multum interfejsów. 
Odnoszę wrażenie, że w zakresie dokowania laptopów/tabletów Thunderbolt w połączeniach kablowych i WiGig bez kabli zaczną nabierać znaczenia. Sprawne, szybkie i energooszczędne połączenia pomiędzy urządzeniami w obrębie biura staną się dla nas bardzo ważne. Nie zdziwiłbym się gdybyśmy się też przestawili na bez przewodowe zasilanie urządzeń przenośnych na naszych biurkach i w samochodzie (np. WiTricity).
Jak widzicie czeka nas sporo zmian, a otoczenie biurowe A.D. 2015 może okazać się zaskakujące. ;-)

poniedziałek, 16 lipca 2012

Koncentrat

  • Stało się - Europejski Trybunał Sprawiedliwości swoim wyrokiem pokazał, że sprzedaż i zakup używanego oprogramowania są legalne. Oczywiście nie powstrzyma to wydawców od uniemożliwiania aktualizacji takich produktów. Są jednak zastosowania (jak oprogramowanie OEM), w których znacznie obniży to ryzyko eksploatacji. No to teraz tylko skok do UsedSoft na zakupy. :-)
  • Google na ostatnim IO pokazał nie tylko Jelly Bean (czyli Android 4.1), ale też ogłosił Google Nexus 7 (produkowany przez Asusa). Polecam Wam krótki artykuł tutaj. Gdyby nie brak HDMI - byłby to mój faworyt wśród mniejszych tabletów. Posiada bardzo atrakcyjną cenę ~$200.
  • Oto wynik świeżego podejścia do tematu konsol do gier - Ouya. Pomysłodawcy zbierają fundusze na produkcje tej konsoli do gier, mającej pracować pod kontrolą Androida, na Kickstarter tutaj. Pomysł wydaje się idealnie łączyć świat super-elastycznego podejścia Open Source, znanego z Androida oraz świata rozrywki domowej. Nie mogę się doczekać długo-terminowych rezultatów tego eksperymentu.
  • Pozostając w tym klimacie przedstawiam Wam dostępny już teraz mały komputerek Mini-X. Odnoszę wrażenie, że wkrótce zobaczymy rozdzielenie telewizorów od ich elementów inteligentnych, a to urządzenie jest krokiem w tej ewolucji.
  • Nowy Foxconn Nano jest wg mnie nowym standardem małych komputerów - zobaczcie tutaj. Szczególnie atrakcyjnie prezentuje się w wersji z AMD E450.
  • Windows 8 podobno ma się pojawić w październiku 2012. Do tego czasu producenci sprzętu muszą odrobić zadanie domowe i wprowadzić wszędzie ekrany dotykowe.
  • Nadchodzi też Mac OS 10.8 - więcej tutaj.
  • Bywają wyniki testów, które podnoszą włosy na głowie. Oto jeden z nich: osiem dysków SSD podłączonych do kontrolera SAS/SATA (LSI Logic 9207-8i), opartego na LSISAS2308, który pracuje z PCI Express 3.0. :-)
  • Polecam Wam podsumowanie przecieków na temat platformy Haswell-EP tutaj (wieloprocesorowa platforma planowana na 2013 rok).
  • Wyłączcie sobie gadżety w Windows Vista/7, bo mogą być niebezpieczne - szczegóły tutaj.
  • Dawniej na forach rozbrzmiewała dyskusja w temacie interfejsów USB kontra PS/2 w klawiaturach i myszach. Nieco po niewczasie ciekawe stanowisko w tej sprawie napotkałem tutaj.
  • Polecam Wam przegląd jedenastu tanich zasilaczy tutaj.
  • Pojazd napędzany wiatrem, ale poruszający się szybciej od niego.
  • Laser, który bezdotykowo i zdalnie przeszuka nas oraz bagaże.

środa, 11 lipca 2012

Sprzedaję DELL Streak 5

Ponieważ ZOPO ZP100 sprawdza się bardzo dobrze, przyszedł już czas na sprzedaż jego poprzednika.
Wystawiłem DELL Streak na allegro tutaj.
[2012-07-29]
Nie poszło, więc wystawiam raz jeszcze tutaj.
[2012-08-24]
Kolejne podejście tutaj.
[2012-09-10]
Ostatecznie sprzedany za ~550zł.

niedziela, 1 lipca 2012

Co będzie za 3 lata? część pierwsza: Internet 2015

Konrad zaraził mnie pomysłem próby wywróżenia elektronicznej rzeczywistości jaka czeka nas za około trzy lata. Mamy połowę roku 2012, więc kieruję ścieżki mej wyobraźni w 2015 rok. Jak wszystkie tego typu rozważania, to również oparte jest o serię różnych założeń i opiera się o sytuację zaobserwowaną trzy lata wcześniej - w 2009 roku. Ponieważ otacza nas szeroka gama urządzeń nie udało mi się zebrać rozważań w jedną szpaltę tekstu. Postanowiłem zebrać je w grupy tematyczne i opisać w częściach.
Chciałbym zacząć od szerszego kontekstu jakim jest  nasze otoczenie sieciowe.

Dostęp do sieci Internet w 2009
Trzy lata temu eksploatowałem połączenia sieci rozległych głównie w Warszawie. Był to okres zdecydowanej dominacji technologii ADSL z trwającą migracją do ADSL2+. Triple-play był tematem przewodnim dla wszystkich nowych ofert (LiveBox i inne). Łączenie usług było świeżym pomysłem, ale stosunkowo niewiele sieci faktycznie dostarczało zawartość jednym medium.
W praktyce, w domu przekładało się to na ok. 2Mbps/0,5Mbps w rozsądnej cenie. Internet mobilny w Polsce był mieszanką GPRS, EDGE, UMTS (3G) i HSDPA (3.5G) w miastach (do 3,6/7,2 Mbps). Praktycznie rzecz biorąc mogłem liczyć na stabilne ok. 0,5Mbps/0,1Mbps. Używaliśmy własnych routerów ze zintegrowanym modemem a w laptopach mieliśmy karty PCMCIA/PC Card. Nasze telefony komórkowe w większości wspierały EDGE, a nowinki obsługiwały HSDPA. W szkieletach sieci głównych operatorów trwała migracja do MPLS na istniejących wiązkach światłowodowych. W radiu zapełniały się już częstotliwości 2,1GHz i mieliśmy nadzieję, że WiMax da nam powszechnie dostępny i tani dostęp do sieci w innym spektrum.

Dostęp do sieci Internet w 2012
Teraz widzę, że sieci oparte na HSPA+ odniosły ogromny sukces. Dzięki ofensywie cenowej udało im się odebrać operatorom kablowym część klientów o ograniczonych potrzebach na pasmo i brak opóźnień. Teraz operatorzy koncentrują się na ewolucji w kierunku DC HSPA+ lub LTE, starając się zapewnić wyższe przepustowości w eterze. Ogólnie rzecz biorąc największą dynamikę w dostępie do sieci Internet obserwujemy w segmencie mobilnym. Najlepszym przykładem jest młodzież, dla której aplikacje dostępne w smartphonie z dostępem pakietowym i WiFi w domu sprawiają, że zupełnie nie widzą potrzeby pracy na tradycyjnym laptopie do własnych celów.
WiMax nie wypalił w Europie z wielu powodów (głównie wysokich cen urządzeń klienckich i braku zainteresowania dużych operatorów w konsolidacji licencji na pasma radiowe). WiMax 2 nic tu już nie pomoże.
Myślę, że niespodziewanie dobre rezultaty uzyskali operatorzy sieci kablowych, którzy zdecydowali się na wykorzystanie pasywnych sieci optycznych (np. GPON) w połączeniu z istniejącą siecią kabli koncentrycznych. Rozwiązania oparte na DOCSIS 3.0 święcą triumfy w miastach. W mej ocenie stanowią spełnienie obietnicy TriplePlay. Tymczasem rozwiązania ADSL2+ stanowią standard, dostarczając nawet do 20Mbps w dół, ale  w niektórych miejscach można zakupić już rozwiązania z rodziny VDSL2 dostarczające nawet do 80Mbps w dół.
Po stronie szkieletów operatorów obserwuję konsolidację i wykorzystanie połączeń ethernetowych 10Gbps w miejsce starszych, droższych rozwiązań operatorskich. W zeszłym roku zauważyłem ożywienie inwestycji w sieciach dostarczania treści (Content Delivery Networks), zorientowane na najbardziej popularne usługi sieciowe. Najwięksi gracze tacy, jak Google czy Akamai zaczęli współpracę z dostawcami treści i operatorami, aby osiągnąć jak największą penetrację rynku poprzez zapewnienie wysokiej jakości dostaw popularnych materiałów.

Dostęp do sieci Internet w 2015?
Nie spodziewam się gwałtownego przełomu na polu przepustowości lub ograniczenia opóźnień w dostępie do sieci publicznych. Spodziewałbym ~10/1Mbps mobilnie i ~100/10Mbps stacjonarnie. Myślę jednak, że ciężar uwagi zostanie przeniesiony na urządzenia mobilne, zasięg oraz bezpieczeństwo. Najbliższe lata będą przede wszystkim walką o pasmo radiowe, bo kolejne ewolucje standardów używają coraz szerszych kanałów a popyt na transmisję danych rośnie. Spodziewam się pełnej migracji do LTE-A i szybkiego przejścia na VoLTE. To z kolei powinno doprowadzić do znacznego polepszenia jakości połączeń głosowych.
Po stronie sieci kablowych wierzę, że VDSL2 pozostanie najpopularniejszym sposobem dostępu w ostatniej mili. Jednocześnie spodziewam się stałego wzrostu popularności GPON i Metro Ethernet. Wydaje mi się, że operatorzy będą nam zapewniali urządzenia dostępowe w domu z wszystkimi niezbędnymi interfejsami z najświeższym WiFi na czele (802.11ac dual band, zgodne wstecz z 802.11n 2,4GHz). Odnoszę wrażenie, że nasza własna inwencja sieciowa będzie się przesuwała z routerów na urządzenia NAS i medialne.
Jak widzicie nie przewiduję rewolucji w technologiach radiowych. Będzie to raczej ewolucja i wykorzystanie coraz większej ilości strumieni przestrzennych z równoczesnym poszerzaniem kanałów danych. 
Myślę jednak, że roaming nabierze zupełnie nowego znaczenia, bo operatorzy będą szukali nowych formuł sprzedaży usług. Obserwując rozwiązania od WiFi Direct, poprzez 802.11u do rozwiązań jednoczesnej transmisji przez kilka kanałów radiowych. Przewiduję, że będziemy mogli prowadzić rozmowy telefoniczne, w tle pobierając filmy i synchronizując dokumenty z NASem w domu - zmieniając medium transmisyjne w miarę, jak się przemieszczamy.
Myślę, że w głównym nurcie usług telekomunikacyjnych zupełnie przestaniemy być anonimowi. Operatorzy będą odpowiadać na zagrożenia bezpieczeństwa zapewniając elementy logiki po stronie urządzeń końcowych, routera dostępowego, końcówki agregującej i buforów zawartości. Sporą rolę odegrają tutaj popularne systemy zarządzania tożsamością jak np. konto facebook, google czy apple. Choć ograniczy nam to dowolność instalacji oprogramowania, to powinno istotnie zmniejszyć powierzchnię zagrożoną utratą danych osobowych czy biznesowych. Być może doczekamy się nawet transparent caching proxy w każdym domu ze skanerem treści i filtrem zawartości, zarządzanymi centralnie przez operatora telekomunikacyjnego.
IP v6 zostanie zaimplementowane w szkieletach operatorskich, ale w domach wciąż domyślnie będziemy działać na IPv4. W rdzeniach sieci operatorskich zobaczymy tanie 100Gbps oraz wykorzystanie kolejnych generacji laserów VCSELOdnoszę wrażenie, że Bluetooth zupełnie zniknie z obszaru sieci IP.
Mam przeczucie, że zobaczymy zupełnie nową odsłonę wirtualnych sieci prywatnych wytyczanych dynamicznie według reguł sterowanych potrzebami wyrażanymi przez aplikacje. Niestety nie mam pod ręką dostatecznie jasnego przykładu tej koncepcji :-/