Tak się zastanawiałem ostatnio, jaką infrastrukturę bym teraz dla siebie zbudował, gdybym miał od obsłużenia spore kilkadziesiąt poważnych serwerów i usług sieciowych. Doszedłem to wniosku, że możliwości są już teraz bardzo sympatyczne. Zakładam wirtualizację wszystkich serwerów i zastosowanie platformy serwerów kasetowych. Zobaczcie...
Zacznijmy od końca, czyli od SAN. Upatrzyłem sobie NetApp FAS3240 pod kontrolą ONTAP 8, gdzie użyłbym kilka dysków SSD 100GB oraz znacznie więcej dysków HDD SATA 1/2/3TB. Macierz SSD mogłaby służyć za cache dla udziałów NFSowych z plikami maszyn wirtualnych lub plików zlokalizowanych na macierzy SATA, dzięki zastosowaniu funkcji FlexCache.
Zakładam, że połączenie z obudową serwerów kasetowych byłoby realizowane za pomocą dwóch zrównoleglonych połączeń 10GBase-SR, a więc: dwie karty sieciowe Dual 10GbE FCoE SAN Unified Target Adapter w macierzy wraz z modułami SFP (4szt.).
Jako obudowę kasetową wybrałbym IBM BladeCentre H (lub inną o podobnych mozliwościach), gdzie jedną z opcji jest zastosowanie dwóch Brocade FCoE Switch Module (69Y1909). Zastosowanie 6 szt. Brocade 10Gb SFP+ SR Optical Transceiver (49Y4216) zapewni 4 porty dla macierzy oraz 2 porty na wyjście do szkieletu sieci (+ ewentualne 2 porty na backup).
Zastosowałbym 2/4/6/8/10/12/14 (w zależności od potrzeb) serwery/ów IBM BladeCentre HX5 połączonych w pary, tworzące cztero-podstawkowe maszyny i wypełniłbym je procesorami Xeon E7-48x0 posiadającymi po 10 rdzeni obliczeniowych. Każdą z maszyn wyposażałbym w karty sieciowe Brocade 2-port 10GbE Converged Network Adapter (81Y1650), aby zapewnić dostatecznie dużo pasma LAN/SAN. Myślę, że trzymałbym się konfiguracji 4 * 8GB DDR3 LV na każdy procesor, czyli 128GB na parę serwerów, co daje 3,2GB/rdzeń fizyczny.
Prawdopodobnie zdecydowałbym się na vSphere 5, startowane z kluczy USB (patrz opcja A1NP). Dalej już korzystałbym z udziałów NFS dostępny w sieci SAN.
Kwestię kopii zapasowych starałbym się rozwiązać za pomocą bliźniaczej macierzy z większą liczbą dysków SATA, podłączoną również do przełączników w obudowie kasetowej (dodatkowe 2 SFP) przez 10GE.
Zauważcie, że przy zastosowaniu 14 serwerów mamy do dyspozycji 7 maszyn fizycznych o łącznych parametrach: 280 rdzeni obliczeniowych, 896GB RAM, 2*10Gbps wyjście LAN oraz 4*10GBps wyjście SAN. Zważywszy, że obudowa kasetowa zajmuje 9U w szafie, macierz 3U + 4U na każde 24 dyski, to widać, że można się spokojnie zmieścić w jednej szafie 42U (nawet 168 dysków wejdzie).
W miarę możliwości starałbym się skonsolidować w tym środowisku wszystkie usługi sieciowe (np. ogniomurek, koncentrator VPN, kontroler sieci bezprzewodowych, load-balancer, reverse http proxy itp.) w formie maszyn wirtualnych. Jeżeli musiałbym podłączyć więcej szaf kasetowych lub dużo więcej urządzeń SAN, to pewnie zdecydowałbym się na zakup przełącznika Brocade 8000.
Jak widzicie żyjemy w bardzo ciekawych czasach, w których możemy pięknie konsolidować nawet duże środowiska. Niestety nie zadałem sobie trudu, by oszacować koszt zakupu i budowy tego środowiska. Odnoszę wrażenie, że licencje EMC/VMware stanowiłyby tutaj główny ciężar, więc intensywnie rozważałbym opcję zastosowania hypervisora KVM (np. pod CentOS) za pomocą boot-over-FCoE.
Z przyjemnością przyjąłbym zaproszenie producenta lub integratora do laboratorium, aby uruchomić taką infrastrukturę, przetestować i rezultaty opisać. :-)
PS. Jeżeli zastanawiacie się, czy FCoE to wydajna technologia w porównaniu z FC, to polecam Wam lekturę tego raportu z testów.
PS. Jeżeli zastanawiacie się, czy FCoE to wydajna technologia w porównaniu z FC, to polecam Wam lekturę tego raportu z testów.
Brak komentarzy:
Prześlij komentarz