sobota, 24 kwietnia 2010

Nieograniczony poziom szczegółowości w wizualizacjach 3D?

Popular Science donosi tutaj, że niejaki Bruce Dell twierdzi, że wynalazł metodę renderowania obrazu trójwymiarowego tworzonego z chmury punktów w miejsce wielokątów przy minimalnym nakładzie obliczeniowym. Przyznam, że jego materiał wideo opisujący mechanizm wprowadził mnie w zadziwienie.
Niestety do oceny wykonalności tego pomysłu konieczna byłaby wiedza ekspercka z zakresu matematyki i grafiki. Mimo wszystko mam nadzieję, że jest to faktycznie przełom, który sprawi, że nie będziemy więcej potrzebować wymieniać co 3 lata karty graficznej, aby zobaczyć kilka zmarszczek więcej na twarzach animowanych postaci.
Moje rozumienie Unlimited Detail:
Otóż Bruce twierdzi, że mając ogromny zbiór punktów "widziany" przez np. 1366 * 768 pikseli ekranu, na którym oglądamy świat wirtualny, wystarczy odnaleźć dla danej klatki po jednym punkcie obiektu, który powinien się znajdować w danym punkcie na ekranie w zakresie pola widzenia. Podobno nakład obliczeniowy na wyszukanie i wyświetlenie punktu z ogromnego zbioru jest znacznie niższy niż renderowanie go z modeli opartych o wielokąty. (patrz jeszcze opis na gram.pl)
Hmmm.. Nie wiem, co o tym myśleć (może to żart?). Oceńcie to sami. Nie odważę się jednak zignorować tego pomysłu. Mam nadzieję, że za półtora roku zobaczymy obiecywany przez Bruce'a Unlimited Detail Software Development Kit.

Zrób to sam: UTM

Od kilku lat można zaobserwować na rynku wysyp urządzeń sieciowych, które w oparciu o platformę Linux ewoluowały od prostych zapór stanowych (stateful firewall) do kombajnów klasy Unified Threat Management. Jako że natura nie cierpi pustki, nasze otoczenie wypełnia się możliwościami zbudowania sobie takiego urządzenia samodzielnie.
Dzisiaj przepis na własny UTM:
 - serwer stelażowy oparty na intel Atom, np.: SuperServer 5015A-PHF
 - pamięć masową, np.: SATA Disk-On-Module Horizontal (8GB)
 - pamięć RAM, np.: SO-DIMM 512 MB DDR2
 - oprogramowanie, np.: Endian Community Edition
Całość "mieszamy" razem, podłączamy do sieci i ... powinno działać.
Rzecz jasna należy pamiętać, że sami musimy zadbać o świeże sygnatury dla ClamAV i Snort. Warto też mieć na uwadze, że całość operacji sieciowych musi obsłużyć słabiutki Atom D510, więc nie będzie to demon prędkości (nie ma tutaj dedykowanych układów ASIC do obsłużenia zadań sieciowych).
Jednak otrzymujemy pudełko, które - w mojej ocenie - powinno zaspokoić większość potrzeb brzegowych przeciętnej podsieci <50 aktywnych użytkowników. Niestety nie mam możliwości przetestowania tego samodzielnie, ale chętnie poczytam o Waszych doświadczeniach z Endianem.

MS Office 2010 gotowy do produkcji

Takeshi Numoto na blogu tutaj ogłosił, że pakiet biurowy MS w wersji 2010 oraz nowy SharePoint 2010 uzyskały status gotowości do produkcji. O ile po pakiecie biurowym spodziewam się raczej dokończenia produktu o nazwie Office 2007, to wiele obiecuję sobie po SharePoint 2010. Miałem okazję używać wersji WSS 1, 2, 3 oraz MOSS 2007. Muszę przyznać, że wciąż robiło to na mnie wrażenie niezłego pomysłu, ale obciążonego wadami produktu szukającego sobie miejsca na rynku. Nowe funkcje opisane tutaj wskazują na to, że twórcy usłyszeli głos udręczonych administratorów poprzednich wersji i umożliwili odzyskiwanie utraconych danych w bardziej humanitarny sposób. Samo zarządzanie rozległymi portalami również zostało uproszczone i zautomatyzowane. Aby do upgrade'u ...

Red Hat Enterpise Linux 6 nadchodzi

 Zespół rozwijający RHEL na swoim blogu tutaj ogłosił udostępnienie do testów pierwszej wersji beta następnej - szóstej edycji tej komercyjnej dystrybucji Linux. Zważywszy, że jest to flagowy produkt firmy Red Hat, na podstawie którego powstają między innymi dystrybucje Fedora, CentOS czy Oracle Enterprise Linux stanowi to duże wydarzenie.
Z mojego punktu widzenia jest to pierwsza komercyjna przymiarka do wykorzystania hypervisora KVM z interfejsem QEMU (w miejsce pakietu XEN). Jednocześnie inżynierowie RH zaimplementowali sporo technologii sprzętowego wsparcia wirtualizacji. Wraz z rozszerzonymi maksymalnymi parametrami sprzętowymi RHEL może stanowić ciekawą alternatywę dla pozostałych hypervisorów. Warto też zwrócić uwagę na wprowadzone w jądrze systemu wsparcie dla rozszerzonych stanów oszczędzania energii procesora.
Osoby zainteresowane mogą łatwo cieszyć się testowaniem nowych funkcji - obok RHEL 6 beta - za pomocą Fedora 13, która już zawiera większość nowości.

środa, 21 kwietnia 2010

Trójwymiarowa drukarka

Popular Science donosi tutaj, że HP wprowadza na rynek pierwszą drukarkę trójwymiarową, tworzącą warstwa po warstwie plastikowe struktury. HP DesignJet 3D ma być dostępny już od 11000 funtów szterlingów. Jest też wersja drukująca w kolorze (można wybrać jeden z ośmiu kolorów przed wydrukiem). Polecam lekturę cennika materiałów eksploatacyjnych tutaj.

Computerworld o Nahalem-EX

Doczekaliśmy pierwszego przedruku artykułu z testami wydajności procesorów intel Xeon 75xx tutaj. Tłumaczenie jest nieco chaotyczne - tak jak oryginał. Potwierdza jednak, że jest to idealne rozwiązanie do konsolidacji masowych obciążeń (>= 16 wątków per procesor).
Korzystając z okazji chciałbym podkreślić, że z uwagi na ceny platform Xeon 65xx/75xx [8c] na razie warto je rozważać tylko w konfiguracjach 4s, ponieważ dwu-podstawkowe (2s) serwery będą moim zdaniem zdominowane przez Opteron 61xx [12c], Xeon 56xx [6c] oraz Opteron 24xx/84xx [6c].
Po kilkukrotnej zabawie w konfiguratorach IBM czy DELL przekonałem się, że stosowanie procesorów Nahalem-EX w odmianach 6c lub 4c dla 2s jest zupełnie nieopłacalne w porównaniu z rozwiązaniami konkurencyjnymi.
Aby dać Wam wyobrażenie o użyteczności poszczególnych rodzin procesorów do serwowania aplikacji Java, zebrałem dane o wynikach pomiaru wydajności w teście SPECjbb2005:
Procesor# CPU# c/CPU# coresSPECjbb2005 bops
Intel Xeon X756028161011147
Intel Xeon X56802612927872
AMD Opteron 6176 SE21224918378
Intel Xeon W5590248 604986
AMD Opteron 2439 SE2612507607
Warto pamiętać, że Xeony pracowały z włączonym HyperThreading, więc miały odpowiednio 32, 24 i 16 procesorów logicznych widocznych dla jądra systemu.

poniedziałek, 19 kwietnia 2010

VDI, ale po mojemu

Wracając jeszcze do ekologii (czy Green IT), to największe pole do popisu widzę w obszarze desktopów. O ile laptopy ostatnio miłościwie ograniczyły swoje apetyty, to nasze komputery biurkowe pozostają jakby w innych czasach.
Zdecydowanie lepiej prezentowałaby się na biurkach urządzenia takie, jak ChipPC PlugPC (pobór mocy ~3W). Musielibyśmy jednak gdzieś przetwarzać dane użytkownika, więc potrzebujemy serwera:
1. Tutaj właśnie ma się przydać okropnie promowany ostatnio Virtual Desktop Infrastructure, czyli przechowywanie pełnych systemów operacyjnych maszyn użytkowników centralnie na serwerze za pomocą wirtualizacji - patrz produkty: VMware ViewCITRIX XenDesktop czy MS VDI. Jednak takie rozwiązania powodują, że w jednym miejscu trzymamy mnóstwo bardzo podobnych systemów operacyjnych (zazwyczaj są one standardowe), co zakrawa na marnotrawstwo...
2. Możemy więc zdecydować się na współdzielenie przez użytkowników jednego systemu operacyjnego i zdalną pracę w nim, czyli rozwiązania terminalowe, np. MS Remote Desktop Services Terminal Services, CITRIX XenApp lub stare dobre X Window.
Tutaj właśnie doszedłem do następującego wniosku:
Otóż środowiska biurowe realizują obecnie wiele operacji poprzez przeglądarkę internetową, zaś platforma Linux doczekała wielu klientów do strumieniowania aplikacji z platform windows nawet w formie pojedynczego okna na ekranie klienta Linux. Na dzień dzisiejszy zastosowanie technologii X Window do stworzenia serwera terminalowego Linux dla użytkowników korzystających na przykład ze wspomnianych terminali ChipPC jest możliwe (licencyjnie bezpłatne) z wykorzystaniem między innymi darmowego narzędzia Window Maker. Zaś niezbędne aplikacje przywiązane do platformy MS Windows możnaby z powodzeniem strumieniować na taki serwer terminalowy przy użyciu rozwiązań komercyjnych (MS RDS lub CITRIX XenApp). W ten sposób możemy zbudować wyjątkowo sprawną energetycznie infrastrukturę kliencką przy minimalnych wydatkach. Dodatkowo, tak zcentralizowane środowisko byłoby łatwe do zarządzania. Główne wady to: pojedynczy punkt awarii (serwer terminalowy), słaba znajomość powłoki Linuksa u użytkowników, potencjalne problemy wynikające z współdzielenia jednego systemu (np. problem z uruchomieniem tej samej aplikacji dla każdego z użytkowników osobno), potencjalne ograniczenia w używaniu peryferiów (np. egzotyczny skaner).
Pomysł - choć atrakcyjny - nie jest nowy, bo "Iksy" mają już 25 lat, a nie widzę dookoła masy wdrożeń. Tym niemniej w kontekście ekologii taki model użycia stanowisk biurkowych jest strzałem w dziesiątkę. 

Ciekawe narzędzie Windows

Ku mej radości trafiłem na strony http://www.winsupersite.com/. I tutaj znalazłem narzędzie do automatycznego opisywania przebiegu określonego zdarzenia w GUI windows. Wynikiem działania narzędzia Problem Steps Recorder jest  plik MHT ze zrzutami ekranu i opisem okien. :-) Na pewno mi się jeszcze przyda...

Zielona informatyka

Odkąd pamiętam w świecie znanej mi informatyki pojawiają cyklicznie różnej maści "zajawki" świadomie wzbudzane i kierowane przez marketingowców, które z czasem wygasają, kompromitują się lub rozpoczynają własną egzystencję jako obszar zainteresowania użytkowników. Mniej więcej od dwóch lat obserwuję informatyczne wcielenie ekologii w postaci tzw. Green IT. (Od razu zastrzegam, że nie jest to kolejna metodyka, z której da się zdać egzamin i uzyskać certyfikat. ;-)
Obserwuję zamieszanie na polskim rynku, jakie wywołały decyzje Komisji Europejskiej (np. ta) o wprowadzeniu serii inicjatyw ekologicznych w obszarze IT.  Od pół roku zastanawiałem się, jak realizować postulaty ekologiczne w naszej codziennej rzeczywistości.
Oto moje wnioski w telegraficznym skrócie:
1. Im mniej IT tym bardziej Green
Problem: Moje otoczenie pełne jest zbędnych urządzeń i oprogramowania. Użytkownicy mają skłonności do pozyskiwania informatyki w sposób przypadkowy (kierownictwo IT również nierzadko na to choruje). Narastającym problemem jest brak nawyku kasowania danych i usuwania zbędnego oprogramowania.
Rozwiązania: Szkolenia użytkowników w grupach i na stanowisku pracy, w celu wpojenia nawyku utrzymywania minimalnych zbiorów danych i aplikacji, a także wykorzystania narzędzi, które już są dostępne (zamiast instalowania kolejnych). Skalowanie IT do potrzeb - nie bójmy się np. chować mało używanych drukarek do magazynu na pół roku. Wreszcie - zakupy IT muszą być planowane i optymalizowane (patrz standaryzacja i konsolidacja).
2. Jednorazówki
Problem: Obserwuję stopniowe skracanie cyklu wymiany sprzętu i oprogramowania, mimo że średnia żywotność urządzeń (w moim odczuciu) raczej się wydłuża. Kierujemy się obawami przed awariami (polecam analizę statystyk awaryjności), zamiłowaniem do kupowania gadżetów, niechęcią do utrzymywania IT w dobrej kondycji (łatwiej kupić nowe).
Rozwiązania: Konieczne jest stosowanie dyscypliny przy wymianie komponentów IT. Mam świadomość, że przy utrzymywaniu standaryzacji konieczna jest czasem wymiana całkiem żwawych jeszcze urządzeń, jednak trzeba rozważyć także aspekt środowiskowy. W ciągu ostatnich 10 lat zaobserwowałem, że 5-letni okres eksploatacji sprawdza się w przypadku komputerów i serwerów, jednak moja drukarka domowa, służy od 1994 i nie widzę powodu by ją wymieniać. Tak więc rozwiązaniem jest określenie kryteriów wymiany sprzętu i oprogramowania, następnie konsekwentne ich egzekwowanie.
3. Bałagan (czy też brak kompletnej architektury IT)
Problem: W niejednej firmie "każdy sobie rzepkę skrobie". Często wynika to wieloletniego cięcia budżetów IT, co zmusza szefów tego obszaru do ograniczenia zakresu swojej odpowiedzialności. W ten sposób możemy obserwować wzrost organiczny infrastruktury IT (jak drożdże pod mikroskopem). Rezultatem jest zwykle niespójna, zdublowana i słabo wykorzystana infrastruktura i skołowani użytkownicy (no bo do kogo mam z tym zadzwonić?).
Rozwiązania: Działy IT powinny dostarczać informatykę do pozostałych komórek organizacji w najtańszy i najlepszy sposób - tak, aby nie było uzasadnione realizowanie IT samodzielnie (lub poprzez zewnętrzne podmioty). Nie bez znaczenia jest zaufanie pomiędzy komórką IT a jej klientami - bez niego, nie da się oszczędnie gospodarować zasobami. Z pomocą przychodzą tu modele usługowe proponowane przez ITIL. Wreszcie absolutnie konieczne jest dzisiaj konsekwentne i świadome planowanie architektury oraz utrzymywanie aktualnej bazy konfiguracyjnej. 
4. Marnotrawstwo energii
Problem: Całe tony urządzeń mielą takty procesorów na darmo. Wszędzie wokoło widzę mnóstwo ładowarek urządzeń przenośnych wpiętych w gniazda na okrągło, mimo że właściciel telefonu jest np. od tygodnia na urlopie. Nawet najnowszy i najbardziej energooszczędny procesor nie zrekompensuje użycia energii przez zbędne zasilacze. Podobnie środowiska serwerowe (szczególnie te zwirtualizowane) obfitują w maszyny, których nikt nie dotyka, bo nie do końca wiadomo, co robią, a nikt nie chce awarii. Widziałem też niejedną serwerownię pomyloną z chłodnią, w której panowały temperatury poniżej 15'C (sprzęt zazwyczaj znosi spokojnie 25'C).
Rozwiązania: Czas już wprowadzić kary za marnotrawstwo energii - nieużywane ładowarki, oświetlenie zostawione na noc, komputery pracujące w nocy (po co?). Konieczne jest także wprowadzenie okresowych przeglądów IT w poszukiwaniu zbędnych lub za słabo używanych elementów oraz korygujących ustawienia pracujących obiektów. Wyłączajmy urządzenia wychodząc z domu (konkretnie: router ADSL, access point, drukarka) czy też z biura (konkretnie: drukarki, skanery, środowiska testowe, szkoleniowe, deweloperskie).
5. Niewykorzystywanie dostępnych rozwiązań oszczędzających energię
Problem: W moim biurze najwięcej prądu pobiera drukarka wielofunkcyjna A3. Jej piec utrwalający jest rozgrzewany do kilkuset stopni Celsjusza powodując pobór mocy nawet do 2kW (średnio ~500W). Z punktu widzenia poboru prądu kluczowe jest ustawienie odpowiednio trybu czuwania w tym urządzeniu (bo pobiera ~7x więcej mocy niż laptop). Często spotykam się z urządzeniami IT, które mają wyłączony tryb uśpienia i pracują dumnie nawet, gdy nie ma użytkownika.
Rozwiązania: Włączajmy obsługę ACPI, gdzie to możliwe. Używajmy trybu uśpienia peryferiów. Ograniczmy liczbę wydruków.

Z punktu widzenia praktyka postrzegam wdrażanie inicjatywy Green IT jako problematykę daleko bardziej organizacyjną niż technologiczną. Wymuszona, przedwczesna wymiana laptopów na nowe - z procesorami wykonanymi w procesie technologicznym 32nm - prawdopodobnie wpłynie raczej negatywnie na środowisko, ze względu na konieczność utylizacji dotychczasowego sprzętu, mimo ograniczenia zużycia energii. Już jednak wprowadzenie dyscypliny energetycznej w biurach przy tych samych urządzeniach ma większą szansę na przybliżenie nas do celu wyznaczonego przez Komisję Europejską.

czwartek, 15 kwietnia 2010

XEN 4.0

W ubiegłym tygodniu ukazała się nowa wersja otwartego hypervisora Xen 4.0 (patrz tutaj). Obecnie maszyna fizyczna może mieć do 128 procesorów fizycznych i 1 TB RAM (idealnie dla 8 * Xeon 7500 z HyperThreading lub 8 * AMD Opteron 81xx). Pojawiły się między innymi nowe funkcje szybkich snapshotów, kilka udogodnień typu pass-through (dostęp bezpośredni do sprzętu hosta z poziomu gościa), wsparcie dla rozszerzeń paravirt_ops jądra hosta, umożliwienie wymiany procesora i pamięci, zmiany rozmiaru dysku bez restartu, ulepszona obsługa współdzielenia kart sieciowych oraz urządzeń PCI-E (SR-IOV), 

Taki laptop mi się podoba

Gazeta Wyborcza przedstawia nam tutaj laptopa Asus N82J, który wykorzystuje dwie interesujące mnie technologie - nVidia Optimus oraz USB 3.0. Produkt pojawia się wraz z innymi z serii N (patrz tutaj). Pozostałe parametry tej maszyny również mi odpowiadają, a szczególnie procesory z rodziny intel arrendale, matryca 14" matowa LED, karta graficzna GeForce GT335m i dysk twardy 7200obr./min.

środa, 14 kwietnia 2010

Era intel Nahalem-EX się rozpoczyna

Polecam artykuł na Anandtech IT, będący wstępnym testem możliwości Xeonów 65xx/75xx na platformie DELL R810 (nie zgadzam się z autorem - DELL R910 to bardziej rozsądna platforma dla Nahalem-EX). Procesory te są tak dobre, jak wszyscy się spodziewaliśmy. Z mojego punktu widzenia stanowią idealny wybór dla elementów platformy wirtualizacyjnej 4s - cztero-podstawkowej (po 32 rdzenie i do 1TB RAM). Niestety są też tak drogie, że dwunasto-rdzeniowe propozycje AMD Opteron 61xx wydają się być realną alternatywą. Po zapoznaniu się z wynikami pomiaru wydajności, cenami oraz dostępnymi konfiguracjami, stwierdzam, że moja ogólna rekomendacja platform kształtuje się następująco:
 1s - Xeon 36xx [6c] / Xeon 34xx [4c]
 2s - Xeon 56xx [6c] / Opteron 61xx [12c] / Xeon 55xx [4c] / Opteron 24xx [6c]
 4s - Xeon 75xx [8c] / Opteron 61xx [12c]
Rzecz jasna w zależności od zastosowania wybór optymalnego rozwiązania może być inny (np. HPC raczej wybierze Opteron 61xx niezależnie od ilości podstawek), jednak w/w rozpatruję pod kątem ogólnego zastosowania w IT.
Na teraz nie widzę na polskim rynku miejsca dla większych serwerów - 6s i 8s, a także zastosowania dla Xeon 65xx w jego obecnej formie.
Z niecierpliwością wyglądam solidnego i kompleksowego testu 4s na Xeon 75xx (4*8 rdzeni)...

Wirusy przetwarzające energię słoneczną w wodór i tlen

DailyTech donosi, że naukowcy z MIT opublikowali w Nature artykuł, w którym opisują wynalazek w postaci zsyntezowanych wirusów osadzonych w specjalnym żelu (zapobiegającym zbrylaniu się), które realizują biochemię fotosyntezy rozdzielając wodę na gazowy wodór i tlen. W ten sposób potencjalnie można by czysto pozyskiwać wodór z energii słonecznej. Niewątpliwie pomysł migracji z gospodarki opartej na ropie na gospodarkę opartą na wodorze utknął obecnie na problemie czystego pozyskiwania wodoru. Być może to jest potencjalne rozwiązanie. Pamiętajmy jednak, że to wczesna faza prac nad tą technologią i nie są znane parametry docelowe potencjalnych generatorów tego paliwa. Czas pokaże, czy będziemy powszechnie wykorzystywać wirusy do cięcia cząsteczek wody.

TRIM dla Linuxów

Jądro Linux w wersji 2.6.33 otrzymało wsparcie dla komendy TRIM (patrz news), niezbędnej do utrzymywania wysokiej wydajności dysków SSD. Jest to kolejny krok w kierunku adaptacji pamięci flash w PCtach.
Warto jednak podkreślić, że konieczne jest użycie systemów plików, które wspierają użycie tej komendy (np. BTRFS lub ext4).

MS .NET 4 i VisualStudio 2010

Dwa dni temu miała miejsce premiera MS Visual Studio 2010, opartego na .NET framework 4.0. Polecam krótki przegląd produktu na łamach Computerworld.

poniedziałek, 12 kwietnia 2010

AHCI vs. IDE

Być może pamiętacie, że jednym z koronnych argumentów za migracją z MS Windows XP do MS Windows Vista była zaimplementowana w tym drugim obsługa Advanced Host Controller Interface. Innowacja ta przyniosła nam między innymi obsługę podłączania i odłączania urządzeń SATA bez wyłączania systemu, a także obsługę natywnego kolejkowania rozkazów (czyli Native Command Queuing). Muszę przyznać, że raczej bez refleksyjnie włączam w BIOS obsługę native AHCI wszędzie tam, gdzie pracuje MS Vista / 7 / Server 2008, lub Linux >= 2.6.19.
Tymczasem serwis Benchmark Reviews wytestował, że dla każdego z trzech najpopularniejszych układów dysków SSD, współpraca z kontrolerem Intel ICH10 (SATA3) układa się najwydajniej w trybie zgodności z IDE. Spadki w wydajności w trybie AHCI są na tyle duże, że warto rozważyć działanie w trybie emulacji IDE. Polecam artykuł tutaj. Ehhh... a tyle było rumoru.

niedziela, 11 kwietnia 2010

Nowy personal mover

Już obserwowanie ludzi poruszających się SEGWAYami wprawiało mnie w osłupienie, ale nowy pomysł koncernu HONDA kompletnie mnie zawiesił. HONDA U3-X to jeżdżący w dowolnym kierunku stołek. Zobaczcie sami tutaj. Prawdziwy mega-gadżet - jest świetny!

piątek, 9 kwietnia 2010

O kartach gaficznych słów parę ...

W ubiegłym miesiącu przez rynek przetoczyła się premiera nowej rodziny kart graficznych nVidia o nazwie kodowej Fermi. Modele GTX 480 [~2000zł] i 470 [~1500zł]trafiły w ręce redakcji prasowych na całym świecie. Niewątpliwie układ AMD ATI Radeon 5870 [~1500zł]został zdetronizowany średnio o ~10% , co pokazuje między innymi np. test XbitLabs.
Długo zastanawiałem się, jak zmienia to nasz krajobraz przeciętnego użytkownika. Obecnie twórcy gier konsumują efekty implementacji DirectX 10 w silnikach gier i pracują pełną parą nad wykorzystaniem ułatwień w DirectX 11. Pojawienie się rodziny Fermi obok rodziny Evergreen  potwierdza tylko ten kierunek rozwoju.
W przyszłych grach zawita więc teselacja, lepsze przetwarzanie równoległe, zaś platformy Windows zyskają standardowy interfejs GPGPU w postaci DirectCompute.
Nowa rodzina produktów nVidia jest nie tylko spóźniona o pół roku, ale także praktycznie niedostępna w sklepach, niepokojąco droższa od konkurencji, bardziej prądożerna i wymagająca pod względem chłodzenia.
Niewątpliwą zaletą premiery jest spodziewane obniżenie cen Radeonów przez AMD / ATI.
Chciałbym jednak zwrócić uwagę na kilka poważnych różnic użytkowych pomiędzy produktami tych firm:
- wojna API dla akceleracji fizyki (nVidia PhysX kontra intel HAVOC - wspierany przez ATI) raczej przechyla się w tytułach gier na korzyść nVidia,
- mimo wprowadzenia OpenCL i DirectCompute wciąż programiści GPGPU powszechnie używają nVidia CUDA, korzystając z bogatego CUDA Toolkit,
- technologia selektywnego wykorzystania dyskretnego układu graficznego do akceleracji elementów obrazu, nVidia Optimus, jest niemal idealnym rozwiązaniem dylematu wyboru laptopa z dodatkowym układem graficznym czy bez, podczas gdy AMD / ATI  nadal oferuje jedynie przełączanie pomiędzy układami
- nVidia nadal bardzo mocno wspiera twórców silników gier pod egidą programu marketingowego "the way it's meant to be played", co przekłada się na większą liczbę tytułów gier zoptymalizowanych dla produktów GeForce.
Celowo pomijam problematykę wielo-ekranowych rozwiązań, bo zupełnie nie przystają do polskich budżetów.
Odnoszę wrażenie, że odłożenie w czasie przez intela premiery kart graficznych opartych na układzie Larrabee oraz narastające problemy w produkcji układów graficznych w fabrykach TSMC (wspólny problem nVidia i ATI) istotnie spowolniły tempo wprowadzania nowych technologii na rynek kart graficznych.
Podsumowując, cieszę się z umocnienia DirectX 11 i żałuję, że na istotny skok jakościowy w złożoności renderowanych scen będziemy musieli poczekać na nowocześniejszy proces technologiczny w fabrykach TSMC i GlobalFoundries (zapewne 28nm dopiero w 2011 roku). Cieszę się na obniżkę cen układów ATI Radeon 5xxx oraz nVidia GeForce GTX 2xx. Warto też na koniec podkreślić, że nVidia nie oferuje żadnych nowości (poza szumnymi nazwami) dla rynku laptopów, zaś mobilne układy AMD z rodziny Mobility Radeon 5xxx wciąż są rzadkością w konfiguracjach notebooków na polskim rynku.
[UPDATE 2010-04-14]
TSMC ogłosiło, że zaprzestaje prac nad dotychczasowym ulepszeniem procesów technologicznych i mierzy teraz w 20nm.

czwartek, 8 kwietnia 2010

Elektroniczny tłumacz

Właśnie dowiedziałem się, że US Army używa urządzenia Voxtec Phraselator oraz Voxtec SQU.ID, które swą funkcjonalnością stanowi element żywcem wyjęty z powieści Sci-Fi. Urządzenie tłumaczy nagrany głos ludzki pomiędzy 40-oma językami, syntezując głosowo przetłumaczony tekst (niestety tłumaczenia ograniczają się tylko do zdefiniowanych wcześniej fraz, pogrupowanych w kategorie). Ciekawy jestem, czy faktycznie działa na tyle, żeby się przydawał na codzień w obcym kraju.
Polecam Waszej uwadze filmik z przypadku użycia SQ.200 tutaj.

środa, 7 kwietnia 2010

Nowa pozycja pamięci flash na PCI-E

OCZ ogłosił wczoraj wprowadzenie do sprzedaży kart PCI-E 8x o pojemności 0,25-2 TB NAND flash. Lektura specyfikacji technicznych produktów OCZ Z-Drive R2 m84 256GB i  OCZ Z-Drive R2 p88 512GB pokazuje, że możliwość startowania systemu z tej przestrzeni pamięci masowej (wygląda na emulację kontrolerów SATA) zostało okupione o ponad rząd mniejszą wydajnością odczytu/zapisu IOps (dla 4kB transakcji) niż np. w produktach FusionIO. Rozwiązanie wygląda interesująco i pasuje mi do serwerowania multimediów strumieniowo. Nie jest to jednak tak skuteczne remedium na dużej skali transakcje pamięci masowej jak rozwiązania konkurencyjne.

Słabo widoczny Nahalem-EX

Dzisiaj przejrzałem strony producentów serwerów. Procesory Intela 75xx i 65xx znalazłem u IBM, DELL, Fujitsu, Hitachi i NEC. Nie widzę ich w ofercie HP, SUN, SuperMicro. Natomiast wszędzie znalazły się już Xeony 56xx (6 rdzeni do dwóch podstawek). Jestem zaskoczony słabą reakcją HP - najwyraźniej nie widzą w tym wielkiego biznesu.
Przy okazji polecam analizę wyników testów transakcyjnych TPC-E dla najszybszych systemów oraz najbardziej efektywnych kosztowo. Wnioski są oczywiste - dla profili użycia OLTP najbardziej efektywne są konfiguracje 2 * Xeon 55xx (czekam na wyniki 56xx), zaś najwydajniejsze 8 * Xeon 75xx. Mamy więc doskonałe platformy do konsolidacji.

wtorek, 6 kwietnia 2010

MS planuje zarzucić platformę Intel Itanium

Już od MS Windows Server 2003 widoczne było coraz słabsze wsparcie MS dla platformy IA64. Tylko wybrane usługi sieciowe można było uruchamiać. XbitLabs donosi, że MS Windows Server 2008 R2 jest ostatnim OS dla tej platformy. Faktycznie wprowadzenie przez Intela na rynek procesorów 8-rdzeniowych, wielo-podstawkowych Nahalem-EX (Xeon 65xx i 75xx) wypiera zupełnie procesory Itanium 73xx (Tukwila) z rynku większych serwerów (ale nie tych o krytycznej dostępności).
UPDATE 2010-04-07:
Intel na łamach XbitLabs odpowiada, że Itanium przetrwa, dzięki sprzedaży HP-UX.

czwartek, 1 kwietnia 2010

Intel Nahalem-EX i AMD Magny-Cours dojechały na rynek

Od dzisiaj możemy kupować ośmio-rdzeniowe procesory Intela oraz dwunasto-rdzeniowe AMD, o ile nas na to stać:
Parę dni temu światło dzienne ujrzał m.in. procesor AMD Opteron 6176 SE, 12 rdzeni, 2,3GHz, 137W, ~$1400 [SPECint_rate2006=~199, SPECfp_rate2006=~159].
Dzisiaj zaś ukazał się m.in. procesor Intel Xeon X7560, 8 rdzeni, 2,26GHz, 130W, ~$3700 [SPECint_rate2006 = ~190, SPECfp_rate2006=~140].
Jak widzimy AMD skutecznie dostarcza rozsądną alternatywę dla Nahalem-EX. Pamiętajmy jednak, że w zastosowaniach wysoko transakcyjnych zdolność Xeona 7560 do przetwarzania 16 wątków obliczeniowych jednocześnie często daje istotną przewagę nad Opteronem 6176. Czekam z niecierpliwością na pierwsze testy.

Trójwymiar zamknięty w pudełku

W hicie kinowym AVATAR widziałem po raz kolejny stół generujący trójwymiarowe hologramy do celów planowania misji. Ta wizja powtarza się od lat w powieściach sci-fi. Obecnie mamy na rynku zmasowany atak okularów z przesłonami LCD do stereoskopii naprzemiennej. Rozwiązanie to jest uciążliwe i daje raczej wrażenie rozwarstwienia płaskiego obrazu niż faktycznej głębi obiektów. Tymczasem napotkałem na sieci bardzo fajny kompromis między marzeniami a realnymi możliwościami - pudełko emulujące swoją przestrzenną zawartość. Artykuł na WIRED dostępny jest tutaj. Na pierwszy rzut oka stwierdzam, że całkiem możliwe byłoby wyprodukowanie dwukrotnie większego urządzenia w rozsądnej cenie. Czekam z niecierpliwością...