piątek, 30 lipca 2010

Mój OS

Własnie mija trzeci miesiąc, jak pracuję na łonie MS Windows XP SP3, po rocznej podróży z przesiadkami XP SP2 -> Vista SP1 -> 7, a więc czas na podsumowanie. Przyznam, że perspektywa porównania tych trzech OS z punktu widzenia szarego użytkownika jest inna post factum niż a priori - faktycznie stwierdzam u siebie opór przed nowym.
Powrót do XP był bolesny początkowo z uwagi na ... interfejs użytkownika. Odkryłem, że jednak zwracam uwagę na wygląd i że drażnią mnie domyślne kolory XP. Poratowałem się Zune XP desktop theme i było nieco lepiej. Zatęskniłem z paskiem zadań i lepszym kalendarzem, ale i na to znalazłem jakieś dodatki.
Jednak pewnych rzeczy poprawić się nie da. Dla przykładu niezbędne jest ponowne uruchamianie XP raz w miesiącu, bo bez tego zwyczajnie przestaje działać. Czekanie na de-hibernację oraz ustanowienie połączenia sieciowego też wymaga cierpliwości. Zatęskniłem także za łatwym przełączaniem monitorów do współpracy z rzutnikiem. Cóż - ze standardem korporacyjnym się nie dyskutuje. Widzę jednak teraz postępy w wersjach MS Windows na swój sposób.
Przy okazji chciałem się poskarżyć ;-) na MS Outlook 2007 SP2. Po 7 latach pracy na Lotus Notes (4.5->8) wręcz nie mogę ścierpieć tego wynalazku. Naprawdę staram się używać go zgodnie z koncepcją twórców, jednak liczba wyjątków krytycznych i samoczynnych restartów tej aplikacji bije wszelkie rekordy, jakie pamiętam. Postanowiłem jednak popracować nad sobą i nad aplikacją, bo mam świadomość, że są miliony użytkowników, którzy z tym żyją na co dzień.

niedziela, 25 lipca 2010

Aktualizacja rekomendacji dla kart graficznych

Myślę, że czas na update na froncie kart graficznych dla komputerów desktop, bo kilka spraw zmieniło się. 
O ile nadal podtrzymuję, że karty typu ATI Radeon 5970, 5870, GeForce GTX 295, 285, 480, 470 i 465 mijają się z celem w polskich realiach, to sądzę, że w segmencie Premium pojawił się nowy lider - GeForce GTX 460 (patrz artykuł na XbitLabs oraz na AnandTech), detronizując moim zdaniem Radeony 5830 i 5850.
W segmencie mainstream liderem pozostaje wg mnie tandem Radeon 5770/5750, szczególnie wyróżniając się rozsądnym apetytem na zasilanie. Bywają też atrakcyjne oferty na starsze opcje bardziej wydajnych kart - np. sympatyczne Radeon 4850 kontra GeForce GTX 260-Core216, ale to DirectX 10 (żyjemy już w świecie gier wersji jedenastej).
W zakresie taniego grania i HTPC zdania są podzielone, ja jednak przedkładam Radeon 5570/5670 ponad GeForce GT 240.
Zejście poniżej 280zł naprawdę utrudnia wybór, ponieważ możemy znaleźć w Polsce multum opcji z różnych rodzin starszych kart graficznych. Zdecydowanie odradzam obecnie inwestycje w Radeony 3xxx, 2xxx i starsze oraz w GeForce 9xxx, 8xxx i starsze. Tutaj faworytami będą zapewne Radeon 5550/5450 oraz GeForce 220/210. Nie sięgałbym już po tańsze karty i radzę raczej zdecydować się na wbudowane układy typu Radeon 4220 lub Intel HD Graphics, aby doczekać do następnej wypłaty ;-).
Pamiętajcie, że warto się zastanowić w co będziecie grać oraz czy Wasz system zdoła dostarczyć zasilanie dla nowego graficznego potwora przed zakupem. Dla przykładu zdecydowana orientacja na grę DirectX11, która głównie korzysta z PhysX, wyświetlanej na monitorze w rozdzielczości rzędu 1080p jednoznacznie wskazuje na zakup karty nVidia GeForce GTX 4xx. Jednak posiadanie zasilacza rzędu 350W oraz procesora wykonanego w technologii 65nm z pamięciami DDR2 zwykle każe ograniczyć swój apetyt do kart o poborze prądu poniżej 150W.
Owocnych wyprzedaży!

sobota, 24 lipca 2010

O infrastrukturę IT jest coraz łatwiej!

Przeczytałem wczoraj nieco spóźniony artykuł na TechReport przedstawiający procesory Westmere-EP. Zestawiłem sobie kilka przykładowych platform ze znanymi mi przykładowymi potrzebami polskich firm rzędu 50-100 użytkowników o umiarkowanym profilu użytkowania IT. Pomyślałem o tym, że chciałbym mieć zwykle po jednym serwerze dla:
  1. MS Windows DHCP, DNS, kontroler domeny Active Directory,
  2. pocztowy,
  3. plików,
  4. unified communication (dźwięk, wideo, wiadomości tekstowe),
  5. portalu intranetowego wraz z bazą danych,
  6. MS Windows aplikacyjny dla aplikacji wymagających tej platformy, będący również drugim kontrolerem DHCP, DNS, AD,
  7. aplikacyjny dla zintegrowanego ERP,
  8. bazodanowy dla zintegrowanego ERP,
  9. hurtowni danych,
  10. zarządzania i archiwizacji (serwer antywirusowy, poprawek, konsole zarządzania itd.).
Zwróćcie uwagę, że jeden zwirtualizowany serwer, dwu-podstawkowy, wyposażony w sześcio-rdzeniowe Xeony 5600 z HyperThreading pozwoliłby na przydzielenie do 24 procesorów logicznych i na przykład 48GB RAM (2*6*4GB) oraz np. 2 * 10GE dostępu sieciowego. Daje nam to średnio po 2,4 CPU, 4,8GB RAM, 2GE sieci. Od razu widać, że mając dwie takie maszyny, korzystające z zewnętrznej macierzy dyskowej za pomocą iSCSI oraz ostrożnie przydzielając zasoby maszynom wirtualnym, możnaby zapewnić sobie gotowość do przełączenia się na drugą z nich w razie awarii. W trakcie prawidłowej pracy obu serwerów ten drugi stanowiłby środowisko testowe dla nowych aplikacji oraz upgrade'ów.
W praktyce oznacza to zakup nawet tylko dwóch serwerów 1U, np. SuperMicro SuperServer 1026T-6RFT+, a jest to wydatek rzędu 6-7 tys. dolarów za sztukę.
W zakresie macierzy iSCSI myślę, że najłatwiej zwrócić się do naszych rodzimych dostawców, np. takie 3TB w RADI10 od actidata actiNAS 8000 2U 6.0 TB, 6x1000 GB HDD SAS za ok. 24 tys. zł pewnie by wystarczyło. Warto by tu rozważyć ze dwa dyski SSD SLC.
Chociaż przyznam, że skłaniałbym się raczej do złożenia własnego rozwiązania w oparciu o obudowę  SuperMicro SuperChassis 936E26-R1200B, dyski SAS 3,5" 10 obr., karty z pamięcią flash PCI-E (wysokie I/O) oraz kartę 10GE dla zapewnienia sobie jak najwyższej wydajności , a jako system operacyjny dla macierzy wybrałbym Openfiler lub jakiegoś analoga.
W zakresie kopii zapasowych trzymałbym się raczej starego dobrego LTO, ale w wersji 4. Taki autoloder - actidata actiLib 1U Autoloader LTO-4 HH SAS za około 15 tys. zł, podpięty bezpośrednio do macierzy dyskowej spełniłby swoje zadanie, pracując na 800GB taśmach. 
Do tego wystarczyłoby dołożyć modularny (dla redundancji) przełącznik sieciowy L3 o co najmniej 8 portach 10GE, np. HP H3C S5820X-28S, co z portami SFP+ kosztowałoby ~20 tys. dolarów. Do tego należałoby jeszcze dokupić urządzenie sieciowe klasy UTM, np. Draytek VigorPro 5510, za ok. 3500zł. Jeśli dorzucimy do tego UPSa ok. 3500VA, szafę lub stojak oraz klimatyzowane pomieszczenie, to mamy małe DataCenter dla średniej polskiej firmy. 
Oczywiście moje rozważania mają charakter teoretyczny i nie dotykają oprogramowania ani konfiguracji. Również należałoby się zastanowić nad siecią lokalną, węzłami i samymi końcówkami klienckimi. Zapewne kilka usług informatycznych warto byłoby oddać na zewnątrz (np. Mail Transfer Agent, hostowanie stron firmy, czy np, ewentualny WAN - w formie usług MPLS VPN).
Tym niemniej jeszcze 5-7 lat temu planowałbym zakup co najmniej 15 serwerów i solidnej macierzy FibreChannel dla tego typu wymagań. Jak widzicie jest coraz łatwiej ... :-)

piątek, 23 lipca 2010

Inter-wakacyjny przegląd laptopów

AnandTech opublikował tutaj bardzo zgrabne podsumowanie laptopów naprawdę mobilnych (14" i poniżej). Gorąco polecam.

czwartek, 1 lipca 2010

Sztuka zapominania

Mój komputer nie kasuje sam danych, ani nie pomija samoczynnie plików w indeksach wyszukiwarki, czego nie mogę już powiedzieć o mojej głowie. Sporo zapominam - taka jest prawda. Podobno im człowiek mniej pamięta, tym mniej ma na głowie i jest szczęśliwszy (bo nieświadomy). 
Widzę w tym analogię, gdy patrzę na pękające w szwach skrzynki pocztowe (zarówno PST, jak i NSF), gdy obserwuję opasłe foldery "Dokumenty", a także monstrualne "Obrazy". Muszę przyznać, że mam jakieś atawistyczne opory przed kasowaniem danych - nie mam tu na myśli duplikatów ani zbędnych programów instalacyjnych. 
Jednak od kilku lat trzymam się kilku zasad, które sprawiają, że mój "odcisk" danych prywatnych utrzymuje się na zarządzalnym poziomie kilkudziesięciu gigabajtów:
1. W zakresie e-maili zwykle:
 a) kasuję od razu wszystkie reklamy i powiadomienia
 b) staram się trzymać niezbędne załączniki w "Dokumentach"
 c) co tydzień sortuję wiadomości wg ich rozmiaru malejąco i kasuję, co bardziej zbędne aż do 1MB
 d) wiadomości starsze niż rok przenoszę do pliku archiwum
2. Stosuję foldery do podziału dokumentów na:
 a) bieżące - dostępne w "Dokumenty" z repliką w bezpiecznym miejscu
 b) od kilku miesięcy nie używane - spakowane w jedno-plikowe archiwa, zawsze mam je ze sobą
 c) nie używane od co najmniej roku - w/w archiwa na zewnętrznym dysku twardym oraz kopia DVD-R
3. Reguluję wielkość plików zdjęć w ustawieniach aparatu fotograficznego (zwykle satysfakcjonuje mnie 2 megapiksele) i staram się kasować nieudane fotografie jeszcze w aparacie. Zdjęcia przechowuję tylko na płytach DVD-R i na dyskach zewnętrznych
4. Przed każdą archiwizacją danych:
 a) kasuję wszystkie pliki wideo
 b) umieszczam na płytach niezbędne obrazy ISO i kasuję je
Łącznie spędzam około godzinę w tygodniu na kontrolowaną amnezję. Przez lata przekonałem się, że jest to skuteczna metoda na "szczęśliwy komputer", który ma "mniej na głowie".