Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



14.07.2021

Platforma AQUILA

IBM zaprezentował platformę opartą na sztucznej inteligencji służącą do kompleksowej, w...
14.07.2021

Przenoszenie Javy do chmury

JBoss Enterprise
14.07.2021

Nowe okna

Windows 11
14.07.2021

Monitoring sieci

nVision 12.5
14.07.2021

Automatyczna ochrona

Nowości w FortiEDR
14.07.2021

Seria monitorów...

Firma Newline prezentuje serię monitorów interaktywnych MIRA.
14.07.2021

Modularne routery IoT

Cisco Catalyst
14.07.2021

Nowy poziom pracy

Radeon PRO W6000
14.07.2021

SI w monitoringu

Kamery i-PRO S-Series

Droga Architekta IT – Trendy

Data publikacji: 27-05-2021 Autor: Maciej Lelusz

Każdy biznes i w zasadzie wszystkie gałęzie życia poddają się rządzącym nimi trendami. Nie inaczej jest w IT. Podczas projektowania infrastruktury, w zależności od klienta czy też projektu, czeka nas masa wyborów. W pierwszej części tej serii poruszyłem kwestię, jak wkuwać efekty tych wyborów w ADR. W tej części chciałbym przyjrzeć się sferze, w jakiej możemy się poruszać, temu, co jest „modne”, jakie rozwiązania i trendy królują na salonach, czyli tematom związanym z komodyzacją sprzętu, SDx, HCI i SD-WAN.

 

W tendencjach zauważalne jest przede wszystkim postępujące ciśnienie na standaryzację rozwiązań sprzętowych. Zagadnienie to ma na celu niejako pozbycie się z horyzontu nowoczesnego IT rozwiązań typu np. ASIC (ang. application-specific integrated circuits). Są to tworzone do wykonywania bardzo specyficznych funkcji rozwiązania sprzętowe, które – jak sama nazwa wskazuje – tworzone są do jednego celu. Użycie ich wydaje się bardzo kuszące z perspektywy projektanta, gdyż są wyjątkowo wydajne w tej jednej konkretnej funkcji, którą realizują. Cechują się również niskimi opóźnieniami i zazwyczaj udostępniają zdecydowanie wyższy poziom monitoringu/telemetrii niż ich kuzyni tzw. ogólnego użycia. Niestety mają również pewne wady: jedną, policzalną wyrażoną w kilodolarach – cenę; drugą, niepoliczalną wyrażoną w komplikacjach powdrożeniowych. Wbrew pozorom ta pierwsza nie jest wyssana z palca, ponieważ na kwotę wpływają wyższe koszty produkcji (ze względu na jej niemasowy charakter), bardzo ścisła zależność od konkretnego dostawcy oraz dość trudny recykling nietypowych układów. Jeżeli chodzi o drugi aspekt, to główne problemy bardzo wyspecjalizowanej infrastruktury objawią się: tzw. vendor lock-in, czyli bardzo silnym uzależnieniem własnych rozwiązań od tych dostarczanych wyłącznie przez jednego producenta; stosunkowo trudnym dostępem do specjalistów, którzy zgodnie z prawem popytu i podaży są upiornie drodzy; oraz, co najważniejsze, zdarzającym się nie tak znowu rzadko, brakiem kompatybilności z resztą rozwiązań w organizacji.

 

> Trudny wybór

Rodzi się zatem pytanie – czy wybierać rozwiązania, które są oparte na dedykowanym, bardzo wyspecjalizowanym, ale zamkniętym sprzęcie, czy może iść w stronę generalizacji i przenoszenia funkcjonalności w oprogramowanie? Zasadniczo jest to zagadnienie matematyczne – już sam koszt wejścia może rozwiać wątpliwości. Jednak poza nim warto zastanowić się, co w sytuacji, gdy na zbudowanie na tym sprzęcie swojego ekstremalnie wydajnego rozwiązania włożymy ogromną ilość energii, a firma, która nam je dostarcza, po kilku latach zakończy działalność lub utnie linię produktową. Czy będziemy mogli unieść ciężar zmiany platformy? Idąc dalej – czy ta wydajność, którą uzyskamy, jest nam tak naprawdę potrzebna? Rozwiązania dedykowane mają bardzo skonkretyzowane scenariusze użycia i wtedy sprawdzają się świetnie, a inwestycja w nie ma szansę zwrócić poniesione koszty i jeszcze na sobie zarobić. Po głębszym zastanowieniu w większości przypadków okazuje się jednak, że nasz scenariusz ujawnia cechy standardowości, a wówczas można rozważyć sprzęt ogólnego użycia.

> Ujednolicenie sprzętu

Trend standaryzacji-komodyzacji sprzętu ma na celu zaadresowanie potrzeby rynku odbiorców o podobnych wymaganiach. Zatem, jeżeli nasz projekt wpisuje się w standard, należy bardzo dokładnie rozważyć możliwość wyboru sprzętu ogólnodostępnego. Producenci czują ten trend i od lat coraz bardziej zauważalne są podobieństwa między platformami przez nich oferowanymi. Od pewnego czasu, otwierając obudowę któregokolwiek serwera dostępnego na rynku, ma się wrażenie, że w środku znajduje się ten sam sprzęt. Tak jakby istniał tylko jeden producent na świecie, a reszta skrzętnie zmieniała naklejki i projektowała nowe obudowy. Sytuacja ta poniekąd podyktowana jest faktem, że wartość sprzętu jest stała, a marże na nim relatywnie niewielkie, tymczasem koszty produkcji, logistyki i projektowania – ogromne. Z tego powodu wśród producentów kojarzonych przede wszystkim z produkcją sprzętu zaobserwować można tendencje przenoszenia skupienia na warstwę, którą można zdecydowanie łatwiej skalować – oprogramowanie.

 

> Odluksusowienie

Przez ostatnie lata można zaobserwować wykuwanie się tytanów rynku hardware specjalizujących się w opracowywaniu, produkcji i logistyce sprzętu, który jest białą kartką. Taka „carte blanche” przygotowana jest w możliwie jak najbardziej elastyczny sposób do zapisania na niej oprogramowania firmy, która doklei tylko swoje logo. Takie podejście pozwoliło na zdemokratyzowanie dystansu do bardzo wydajnych i dobrze skonstruowanych platform sprzętowych w zasadzie dla każdego. Nie trzeba być już wielką korporacją, która przez ostatnie dziesięciolecia zapuszczała korzenie w Dolinie Krzemowej, aby stworzyć swoje kompleksowe rozwiązanie sprzętowo-software'owe, czyli tzw. appliance. Coraz rzadziej widać wyścig w warstwie sprzętu. Warto jednak nadmienić, że istnieje hardware do specyficznych, często niszowych potrzeb, który w swoim dążeniu do perfekcji w wąskim wyspecjalizowanym spektrum bije o kilka długości sprzęt standardowy. Większość branż ma takie smaczki do dyspozycji, jednak stosunkowo rzadko całe środowiska są na nich oparte. Komodyzacja hardware’u sprawia, że rozwiązania na nim zbudowane mają ciekawą, stosunkowo nową w kontekście historii IT, cechę – są przenoszalne. Coraz rzadziej spotykamy się z rozwiązaniem programowym twardo związanym z daną platformą sprzętową konkretnego producenta. Cechą nowoczesnego oprogramowania jest jego operacyjność z taką samą jakością na sprzęcie różnych producentów – czy to w połączeniu z technologią wirtualizacji lub konteneryzacji, czy też opartą na rozwiązaniach serverless. Dzięki temu, że producenci serwerów mają niejako uwspólnione platformy, nie zdarza się sytuacja, w której jakiś chip lub inny twór związuje dane rozwiązanie software’owe z konkretnym hardware’em. Owocuje to właśnie przenoszalnością oprogramowania i elastycznością w doborze sprzętu dla swoich potrzeb. Wartością dodaną wówczas, która zazwyczaj decyduje o wyborze koni pociągowych naszych aplikacji, są właśnie ich wewnętrze oprogramowanie, soft do wspólnego zarządzania całą infrastrukturą gwarancja. Nie decydują już taktowanie zegara czy pojemność RAM – one są w sumie wszędzie takie same.

 

[...]

 

Bloger i niezależny konsultant z wieloletnim doświadczeniem w branży IT, specjalizujący się w wirtualizacji i cloud computingu. Posiada tytuły MCP, MCTS, VCP oraz VMware vExpert.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"