POIT #210: Infrastuktura w chmurze, czyli właściwie gdzie?

Witam w dwieście dziesiątym odcinku podcastu „Porozmawiajmy o IT”. Tematem dzisiejszej rozmowy jest infrastruktura chmurowa.

Dziś moim gościem jest Marta Gasik – Data Center Lead w Microsoft. Osoba odpowiedzialna za uruchomienie pierwszego kompleksu centrów danych zasilających chmurę Azure w Polsce.

Sponsor odcinka

Sponsorem odcinka jest firma Farnell.

W tym odcinku o infrastrukturze w chmurze rozmawiamy w następujących kontekstach:

  • o rozwoju infrastruktury fizycznej z punktu widzenia hyperscalera,
  • innowacje,
  • czy serwer w data center hyperscalera to to samo co w serwerowni on prem?
  • jak zapewnia się bezpieczeństwo danych?
  • w jakich sytuacjach sprawdzi się infrastruktura chmurowa a w jakich on prem?
  • czy trendy w IT wpływają na rozwój infrastruktury chmurowej?
  • jakie są największe wyzwania i okazje dla infrastruktury w chmurze na najbliższe lata?

Farnell – podzespoły elektroniczne

Zapraszam do odwiedzenia strony sponsora odcinka, firmy Farnell, producenta podzespołów elektronicznych.

Subskrypcja podcastu:

Linki:

Wsparcie na Patronite:

Wierzę, że dobro wraca i że zawsze znajdą się osoby w bliższym lub dalszym gronie, którym przydaje się to co robię i które zechcą mnie wesprzeć w misji poszerzania horyzontów ludzi z branży IT.

Patronite to tak platforma, na której możesz wspierać twórców internetowych w ich działalności. Mnie możesz wesprzeć kwotą już od 5 zł miesięcznie. Chciałbym oddelegować kilka rzeczy, które wykonuję przy każdym podcaście a zaoszczędzony czas wykorzystać na przygotowanie jeszcze lepszych treści dla Ciebie. Sam jestem patronem kilku twórców internetowych i widzę, że taka pomoc daje dużą satysfakcję obu stronom.

👉Mój profil znajdziesz pod adresem: patronite.pl/porozmawiajmyoit

Pozostańmy w kontakcie:

 

Muzyka użyta w podcaście: „Endless Inspiration” Alex Stoner (posłuchaj)

Transkrypcja podcastu

Czy chcesz wdrożyć inteligentne rozwiązania do swojego projektu i tym samym zaoszczędzić czas i pieniądze? Przygotuj się na to, co przyniesie jutro, dzięki naszej poszerzonej ofercie urządzeń i zasobów, w tym czujników, urządzeń komunikacji bezprzewodowej, łączności i wielu innych. Znajdź to, czego potrzebujesz, produkty i informacje, aby zrealizować swój projekt IoT. Odwiedź farnell.com. Jesteśmy autoryzowanym dostawcą produktów elektronicznych i przemysłowych. Mówimy po polsku i jesteśmy sponsorem tego odcinka. Dobrych podcastowych wrażeń od Farnell Polska.

 

To jest 210. odcinek podcastu Porozmawiajmy IT, w którym z moim gościem rozmawiam o infrastrukturze w chmurze. Notatkę, linki oraz transkrypcję do dzisiejszego odcinka znajdziesz pod adresem porozmawiajmyoit.pl/210. 

Podcast Porozmawiajmy o IT jest dostępny zupełnie za darmo. Obowiązuje tylko jedna zasada: jeśli jesteś tu przynajmniej po raz drugi, to po pierwsze, rozgość się, a po drugie odwdzięcz za te treści, wystawiając ocenę w Twojej aplikacji podcastowej lub polecając odcinek w social mediach. Dziękuję.

Zastanawiasz się nad zmianą pracy, ale gdy przeglądasz oferty na popularnych stronach, to nie jesteś przekonany, czy młody, dynamiczny zespół oraz owocowe środki są dla Ciebie? Na szczęście jest Solid.Jobs, portal z ofertami pracy dla ludzi, którzy chcą wiedzieć, ile będą zarabiać, z jakimi technologiami i nad jakim projektem będą pracować. Solidne oferty pracy znajdziesz na Solid.Jobs. 

Ja się nazywam Krzysztof Kempiński, a moją misją jest poszerzanie horyzontów ludzi z branży IT, co realizuję m.in. przez ten podcast. A teraz zapraszam Cię już do odcinka. 

Odpalamy!

 

Cześć! 

Osoba, z którą będę dzisiaj rozmawiał pracuje w roli Data Center Lead w Microsoft. Jest odpowiedzialna za uruchomienie pierwszego kompleksu centrów danych zasilających chmurę Azure w Polsce. Moim i Waszym gościem jest Marta Gasik. 

Cześć, Marta, bardzo miło mi gościć Cię w podcaście. 

 

Cześć, dzień dobry.

 

Dzisiaj z Martą będziemy rozmawiać o infrastrukturze w chmurze. Bardzo ładnie się to zresztą rymuje, ale nie o artystycznych walorach chmury będziemy mówić. Myślę, że spojrzymy sobie z taką unikalną perspektywą, jaką Marta posiada, na infrastrukturę w chmurze. Będzie to perspektywa osoby, która widzi, jak ta infrastruktura powstaje, jak się rozwija i jak będzie się rozwijała w najbliższej przyszłości. Tak że jestem przekonany, że będziemy w stanie tutaj od Marty wyciągnąć dosyć unikalne spojrzenie. 

Zanim jednak do tego przejdziemy, to chciałbym Cię, Marta, zapytać, tak jak każdego mojego gościa, czy słuchasz podcastów. Jeśli tak, to jakie audycje najczęściej goszczą na Twoich playlistach? 

 

Muszę się przyznać, że jeżeli chodzi o podcasty, to zdecydowanie jestem tutaj typem słuchacza, który słucha poszczególnych odcinków i poszczególnych tematów, a nie całych serii (w kwestiach zawodowych). Tak że zdarza mi się sprawdzać, kto z moich znajomych, bliższych, dalszych zawodowo się wypowiadał i faktycznie odsłuchać to wtedy, najczęściej na rolkach albo na rowerze. Prywatnie słuchałam już takich bardzo popkulturowych, polskich podcastów, więc tutaj może ich nie będę wymieniać, ale zdecydowanie też w samochodzie warto posłuchać. 

 

Jasne, warto wykorzystać ten czas, kiedy jesteśmy teoretycznie bezproduktywni na to, żeby się albo zainspirować, albo trochę rozrywki uświadczyć. To jest świetny kanał do tego. 

Myślę, że już skończył się ten czas, kiedy zastanawialiśmy się, czy chmura to jest dobry i bezpieczny wybór dla firmy czy dla nas prywatnie. Natomiast warto też spojrzeć teraz na chmurę z nieco innej perspektywy – nie, czy warto, ale jak wygląda rozwój nie tylko tych software’owych usług, których my jako klienci, jako odbiorcy możemy doświadczyć, ale właśnie jak wygląda rozwój tej fizycznej infrastruktury, która napędza, co by nie było centra danych. 

 

Oczywiście centra danych to jest składowa infrastruktury chmurowej. Myślę, że to jest taka część, że nawet jak mówimy o tej chmurze, o innowacji w biznesie, nawet jeżeli jesteśmy już w tym świecie IT zanurzeni przez dekadę, tak jak w moim przypadku, rzadko schodzimy pod tę pokrywkę. Wykorzystujemy serwisy, myślimy, że mówimy o infrastrukturze chmurowej, konfigurując tutaj, które wybieramy regiony, jak rozkładamy ten ruch w naszych aplikacjach, ale prawda jest taka (i to jest właśnie piękne w chmurze), że to jest ta wersja u klienta, że bardzo wielu rzeczy nie musimy już dotykać i zarządzać. 

I potem jest tych kilka firm, które nazywamy pięknie hyperscalerami i tam zaczynamy właśnie wchodzić w tę warstwę dalej. Czyli chmura przestaje być wyłącznie software’owa i z powrotem po tej stronie hyperscalera staje się bardzo intensywnie hardware’ową działką. I właśnie to jest ta druga strona chmury, o której myślę, że mamy szansę dzisiaj trochę porozmawiać – jak stawiamy te centra danych, jak kładziemy te kable, co tam się w środku dzieje, jak te innowacje wyglądają i może trochę zdradzić tych tematów, o których na co dzień się nie rozmawia w biurach IT. 

 

Brzmi świetnie. Właśnie, kiedy myślimy o chmurze, myślimy o centrach danych, to wydaje się to takim nudnym, powtarzalnym biznesem, prawda? Wstawiamy sobie kolejne maszyny,  oczywiście bardzo upraszczając, i nie za wiele się tam dzieje. Ale właśnie, chciałbym od Ciebie usłyszeć, czy faktycznie i na ile innowacje, zwłaszcza w przypadku takich firm, o których tutaj mówisz, są znaczące i w których obszarach te innowacje obecnie podążają. 

 

Właśnie, tak jak mówisz, wydaje się to takie łatwe, prawda? Jakby wyobrażamy sobie taką, może nie najnowocześniejszą organizację, czy to w sektorze publicznym, czy w komercyjnym i jak wyglądają takie centrum danych? 

Takie stereotypowe centrum danych, to jest jakiś pokój gdzieś, za kluczem, pewnie w piwnicy schowany, w którym stoją te serwery, dostawia się kolejne. Bardzo ograniczone tutaj faktycznie pole działania, podłączenie kabli, podłączenie raku serwerów, to nie jest coś innowacyjnego. 

To, co się dzieje po drugiej stronie, czyli w tych data center chmurowych, to zdecydowanie, tak jak zapytałaś o innowacje, to jest moim zdaniem definicja innowacji w świecie IT. Wystarczy spojrzeć na tempo rozwoju chmury, cała chmura rośnie, ponad 20% rok do roku rośnie zapotrzebowanie klientów globalnie na usługi chmurowe. 

Możesz więc sobie wyobrazić, co to znaczy dla nas – musimy w tym tempie, rok do roku, dostawiać capacity chmurowe. I to jest o tyle się ciekawe, że to jest capacity chmurowe, ale to nie jest tożsame z tym, że my dostawiamy kolejne szafy, czy tyle samo kolejnych metrów kwadratowych centrów danych. Jakby spojrzeć na nasze badanie, to tutaj też jest dużo takich dyskusji o właśnie, jak dużo energii zużywają centra danych, czy to jest w ogóle dobre dla środowiska. W ostatnich latach (mówię o Microsoftowym przykładzie, ale myślę, że to jest taki trend rynkowy) byliśmy w stanie dodawać te 20% dodatkowej mocy obliczeniowej chmury, jednocześnie nie konsumując o tyle więcej energii z gridu. 

Więc tak, odpowiadając na pytanie, innowacje są, może jeżeli to faktycznie jest ten kierunek, możemy o tym porozmawiać, jakie to są innowacje, zarówno jeżeli chodzi o to, jak wyglądają te serwery, jak wygląda chłodzenie, jak wyglądają design poszczególnych centrów danych, jak i czy te centra danych, które stawiamy w tym momencie na całym świecie, są takie same jak 10 lat temu, kiedy w tę chmurę wchodziliśmy. 

To są bardzo szerokie tematy i oczywiście tutaj fajnie jest być po tej stronie hyperscalera i nieść ten  kaganek oświaty, bo mamy szansę zainwestować jako ogromna firma, dużo pieniędzy w research, w innowacje, posprawdzać trochę, wprowadzić liquid cooling do data centers chwilę wcześniej, wprowadzić wysoko rozwinięty recycling. I to są rzeczy, których może nie każdy, kto zarządza swoim centrum danych na poziomie poszczególnej organizacji, ma szansę dotknąć. 

 

To brzmi bardzo futurystycznie. Gdybyś mogła powiedzieć kilka zdań na temat tych obszarów research and development, które obecnie są takie najbardziej rozwijane, powiedzmy, przez hyperscalerów, to o czym mogłabyś tutaj wspomnieć? 

 

Przede wszystkim podzielę to na dwie kategorie, ponieważ ten research, który teraz jest taki, że faktycznie, że ja o nim czytam i mówię: Wow, ale super, to są rzeczy, które będą na rynku za 10 lat. Tak że zacznijmy od tego, jakie nowoczesne rozwiązania znajdują się w takich centrach danych, które w tym momencie otwieramy na całym świecie. 

Oczywiście tutaj mogę też powiedzieć z nieskrywaną dumą, że w tym momencie najnowszy region chmurowy Microsoftu jest w Polsce. To jest Azure Poland Central wokół Warszawy, więc tutaj te nowoczesne rozwiązania faktycznie znajdują się już bezpośrednio koło nas. 

Ale z takich rozwiązań, po pierwsze, w jaki sposób projektowane są w środku te kolokacje, te poszczególne hale centrów danych. To nie jest tak, że my zamawiamy ten sam hardware od naszych producentów, chociaż używamy wielu z tych samych producentów hardware’u, co nasi klienci, jeżeli by się zdecydowali na infrastrukturę on-premową. Ten hardware jest specjalnie dla nas projektowany. Inaczej są zaprojektowane po prostu całe płyty, całe racki, żeby faktycznie zmaksymalizować to do infrastruktury chmurowej, do bardzo konkretnych przykładów użycia przez naszych klientów. 

Oczywiście tych rodzajów zaprojektowanych hardware’u jest masa, tak samo jak z punktu widzenia software’u możemy wybrać, które maszyny wirtualne, w jakim wariancie, to oczywiście tak samo, koniec końców różny hardware stoi w tych halach. Dzięki temu, że on jest dosyć gęsto zaprojektowany, mamy też możliwość inaczej trochę go chłodzić. 

Nie wiem, Krzysztof, jak sobie wyobrażasz, że wchodzisz do centrum danych, to jaki masz obraz przed oczami? 

 

Dużo wiatraków, bardzo mocna klimatyzacja i duże zużycie energii. 

 

Taki [kolar? 09:57 ], który wkładasz, żeby zobaczyć. I to już nie jest rzeczywistość dzisiejsza. My w ogóle tak naprawdę przy naszym designie mamy szansę nie używać w ogóle żadnego innego chłodzenia niż wiatrakowego, mechanicznego, dopóki temperatura na zewnątrz budynków nie przekracza 29 i bodajże 0,4 stopni. Czyli przez większość roku nie musimy w ogóle uruchamiać dodatkowego chłodzenia. To jest spowodowane designem, mamy po prostu korytarze cieplne i korytarze chłodne w tych centrach danych. 

Co się dzieje, kiedy przekraczamy te 30 stopni? Nie włączamy tutaj tradycyjnej klimatyzacji z płynem chłodniczym, tylko wpuszczamy mikroskopijne krople wody do tych korytarzy gorących. Ludzie często się dziwią, że jak to wodą chłodzimy centra danych. Absolutnie tak. Wykorzystujemy tutaj po prostu naturalne właściwości wody, czyli po prostu parę wodną. Dzięki temu, że wprowadzamy takie skroplone kropelki wody, one parują i ochładzają temperaturę w tym gorącym korytarzu. To się nazywa chłodzenie diabetyczne. Nie jest to nic nowego. To są naturalne zjawiska wody, ale fajnie jest wykorzystywać takie naturalne zjawiska właśnie w tych innowacjach chmurowych. Pozwala nam to oszczędzić do 98% wody w porównaniu do tradycyjnych centrów danych przy chłodzeniu. 

Tak że myślę, że to jest zdecydowanie innowacja, która jest też zielona dla środowiska, bo warto o tym pamiętać, że jednak takie ogromne korporacje, jakby nie patrzeć, korporacje, nieważne jak robimy innowacyjne rzeczy, muszą być świadome, jak wpływają na środowisko. I posiadając tak ogromną infrastrukturę chmurową (w przypadku Microsoftu to jest ponad 60 regionów na całym świecie, ponad 200 centrów danych poszczególnych) mamy wpływ na środowisko. Jeżeli nie zaczniemy wprowadzać innowacji, które ten wpływ ograniczą, które pozwalają nam być bardziej zielone, to jak my mamy w ogóle rozwijać się kolejną dekadę, jak mamy odpowiadać na te wszystkie raporty ESG, gdzie sami sobie też agresywnie stawiamy te cele, że tutaj mamy kwestie właśnie zużycia energii, kwestie zużycia wody. 

Oczywiście mamy też tradycyjne, recycle, reuse. Oprócz dysków, które tutaj mamy bardzo ważną dla bezpieczeństwa zasadę, że jeżeli raz wejdą do data center, to już ich nigdy nie opuszczają, są niszczone on-site, to oczywiście kwestia danych klientów. Pozostałe części takiego hardware’u faktycznie mogą być używane dalej. Nie wszystkie workloady mają tak intensywne wymagania, niektóre hardware’y po roku czy dwóch latach użycia na najbardziej intensywnych, nowoczesnych workloadach nadal można wykorzystywać do bardziej podstawowych obliczeń. Czasami również poza naszymi centrami danych można przekazać gdzieś dalej, gdzie są potrzebne. 

To są te rzeczy, o których mówimy w dzisiejszych centrach danych. Mamy też takie całe podejścia do budowy centrum danych, np. w Polsce po raz pierwszy otworzyliśmy coś, co nazywamy Rapid Deployment Data Center. Dla nas po czasach PRL-u pewnie jest to trochę bliższy koncept, bo to jest prawie że data center z części prefabrykowanych. Czyli nie stawiamy np. całego generatora na miejscu od zera, tylko przyjeżdża cały komponent, który po prostu podłączamy i tworzymy właśnie jedną halę za drugą w identycznym designie. Pozwala nam to skrócić czas od inwestycji do udostępnienia takiej infrastruktury klientom. 

To są wszystko rzeczy, o które pytałeś, takie na teraz, a myślę, że bardzo ciekawe jest to, nad czym teraz pracujemy, co za 10 lat np. będzie interesujące. Tutaj moim ulubionym przykładem jest Project Natick, czyli data centers, które są zanurzone pod powierzchnią oceanu w próżniowej kapsule. 

Co sprawdzamy? Sprawdzamy, czy faktycznie w takim próżniowym środowisku, bez kontaktu techników, bez żadnego kontaktu z tymi serwerami, ten hardware będzie się trzymał lepiej czy gorzej, ile czasu jesteśmy go w stanie wykorzystywać. 

I po co takie projekty? Czy chodzi wyłącznie o chłodzenie, czy chodzi wyłącznie o to właśnie, żeby sprawdzić czas? Nie, to ma bardzo konkretne zastosowania. Z jednej strony oczywiście wysyłanie serwerowni w kosmos, na stacje kosmiczne, gdzie też nie będzie nam tak łatwo za każdym razem wysłać ekipę 30 techników, którzy zapewniają maintenance danych i połączeń. Tak że to jest jedna strona, w którą to rozwijamy. 

Oczywiście pojawiają się też takie jak Azure Orbital, już w tym momencie łączenie sygnałów przez satelity, ale to jest wszystko część długofalowej strategii, faktycznie zapewniania tutaj tej samej infrastruktury chmurowej. To nie jest nowa, to jest ta sama infrastruktura, tylko w tym momencie w kosmosie. 

I druga rzecz to jest np. wykorzystywanie chmury na kontynencie Afryki. W tym momencie ze względu na infrastrukturę, która jest położona lądowo w Afryce, bardzo trudno jest do wielu rejonów dojść z tą nowoczesną infrastrukturą w ten sam sposób, w którym mamy ją w Europie czy w Stanach. Ale gdyby udostępniać centra danych chmurowe wyłącznie w wodach wokół wybrzeży Afryki, moglibyśmy dotrzeć do 90% populacji kontynentu tą drogą. 

Więc też jest to bardzo fajny obszar, który staramy się eksplorować, w jaki sposób można tutaj udostępniać te innowacje chmurowe i dostęp do mocy obliczeniowej w zupełnie nieoczywisty sposób, inną drogą niż lądową. 

To są wszystko rzeczy, o które pytałeś, takie na teraz, a myślę, że bardzo ciekawe jest to, nad czym teraz pracujemy, co za 10 lat np. będzie interesujące. Tutaj moim ulubionym przykładem jest Project Natick, czyli data centers, które są zanurzone pod powierzchnią oceanu w próżniowej kapsule. 

Co sprawdzamy? Sprawdzamy, czy faktycznie w takim próżniowym środowisku, bez kontaktu techników, bez żadnego kontaktu z tymi serwerami, ten hardware będzie się trzymał lepiej czy gorzej, ile czasu jesteśmy go w stanie wykorzystywać. 

 

To są faktycznie bardzo fascynujące tematy. Miałem wrażenie, kiedy o tym opowiadałaś, że te innowacje tyczą się w dużej mierze wszystkiego, co jest w otoczce właściwego data center – czyli chłodzenie, umiejscowienie, energia. Natomiast zaczęłaś też bardzo ciekawy wątek związany z maszynami jako takimi, z układami jako takimi. 

Myślę, że to jest też bardzo istotna przewaga takiej infrastruktury chmurowej vs to, co jesteśmy w stanie nawet jako całkiem duża firma pozwolić sobie na wprowadzenie u siebie on-prem. Jak to w praktyce wygląda? Czy każda serwerownia Microsoftu, czy też powiedziałbym innych konkurentów, jest budowana z wykorzystaniem takich customowych układów, czy też to jest pewien dodatek do jednak tych najczęściej używanych i powszechnych układów scalonych?

 

To jest takie szerokie pytanie. Myślę, że tutaj nie jest istotne aż tak, czy każdy cluster, czy nie każdy cluster. Faktycznie, po prostu trochę inaczej: my nie zamawiamy takiego gotowego hardware’u, gotowych serwerów of the rack, jak się mówi, od producentów, które są dostępne nawet w najwyższych modelach dla klientów. Zamawiamy coś specjalnie dla nas. Ze względu i na scalenie, i na kształty tych racków. Tak że to może jest coś, co jest ułatwieniem w naszym łańcuchu dostaw, ale nie jest aż tak kluczowe dla klientów. Ale to, co jest kluczowe dla klientów i o czym pomyślałam, jak zaczęłyśmy pytanie, to jest to, że faktycznie wchodzimy w taką erę, w której niektóre innowacje technologiczne są prawie niedostępne dla tych podmiotów, które wyłącznie używają on-prem. 

Największe trendy obecnie, Big Data, oczywiście cały AI, zaraz tutaj pojawiają się i też wiem, że Ciebie też interesują takie tematy jak quantum computing. Kto będzie mógł sobie pozwolić na to, żeby postawić u siebie w serwerowni on-prem maszyny, które pozwalają na obliczenie takich workloadów (i to więcej niż jedną, bo tutaj mówimy już o pewnych projektach, które mają pewną skalę)? 

To są takie innowacje, że jeżeli chcemy z nich korzystać, jeżeli faktycznie chcemy mieć do nich dostęp, praktycznie musimy używać chmury. Właśnie to jest taka przestrzeń, w której chmura daje szanse, których nie możemy wykorzystywać, jakby nie decydując się co najmniej na hybrydową infrastrukturę. I to jest dla nas na pewno i zakładam, że dla naszych konkurentów na rynku również, ogromne pole inwestycji. Faktycznie wprowadzanie tych maszyn, które udostępniają w różnych regionach po całym świecie naszym klientom dostęp do najnowocześniejszych workloadów. W naszym przypadku to jest obecnie OpenAI, oczywiście tutaj hardware, który zasila workloady AI-owe. 

Jeżeli obserwujesz to, albo nasi słuchacze, ogłaszamy coraz to w nowych regionach na świecie, teraz ten OpenAI jest dostępny. I oczywiście,  za kulisami, jak się możesz domyślać, to ogromna ilość pracy, żeby faktycznie tę nową generację hardware’u udostępnić naszym klientom. 

 

No tak, moc obliczeniowa to jest na pewno coś, o co walczymy. Coś, w czym infrastruktura taka chmurowa może zabłysnąć. Ale nie możemy też zapominać o czymś, co zwłaszcza w ostatnich latach zyskuje bardzo na znaczeniu, czyli o bezpieczeństwie, o cyberbezpieczeństwie, o bezpieczeństwie danych. Mamy wiele przykładów, że niezadbanie o ten obszar często może prowadzić wręcz do zatrzymania firmy. 

Czy infrastruktura chmurowa, co do której wcześniej były wątpliwości, czy chcemy dane klientów, te z naszej piwnicy (fizycznej) przenosić do chmury, obecnie może nam zapewnić taki poziom bezpieczeństwa danych klientów, że po prostu będzie to nie tylko wystarczające, ale wręcz będzie stanowić pewną przewagę, której sami jako administratorzy IT wręcz nie będziemy w stanie w firmie zapewnić? Co możesz powiedzieć o bezpieczeństwie danych klientów, jeśli chodzi o infrastrukturę chmurową? 

 

Krótka odpowiedź na pytanie, czy infrastruktura chmurowa może takie bezpieczeństwo zapewnić: tak, zdecydowanie. Więc zacznijmy od tego, że zdecydowanie może, a rozwijając trochę ten temat, ja nawet nie skłaniałabym się tutaj do tej Twojej interpretacji, że kiedyś nie mogła. Myślę, że raczej jest to taka krzywa nauki, czyli krzywa świadomości właśnie. Jakby ci ludzie, którzy pracują w działach bezpieczeństwa, ci architekci – czy oni zawsze rozumieli to, co chmura może zapewnić? I to jest, myślę, takie prawdziwe pytanie. 

Teraz z dużym wzrostem kompetencji chmurowych na rynku i polskim i oczywiście globalnym, widzimy, że faktycznie to zrozumienie, jak chmura działa, jakie to bezpieczeństwo danych jest, umożliwia coraz większej liczbie organizacji wchodzenie w chmurę. 

Bardzo ważne jest tutaj też to (takie są czasami legendy na naszym lokalnym rynku), że są jakieś regulacje, które nie pozwalają wchodzić w chmurę. Sektor regulowany. To jest nieprawda. One pozwalają wchodzić w chmurę. Wymagają interpretacji, ale już jest wiele instytucji, które w tę chmurę weszły i z której korzystają naprawdę intensywnie. 

I to, w jaki sposób zapewniamy bezpieczeństwo, jeszcze dodam tutaj kilka słów wzmianki, na pewno jest dzieloną odpowiedzialnością pomiędzy tym, co taki administrator skonfiguruje, a tym, co zapewnia hyperscaler, ale zdecydowanie możemy to zapewnić. Z jednej strony jest to infrastruktura właśnie software’owa, czyli w jaki sposób korzystając z chmury, korzystamy z wiedzy nie tylko swojej organizacji, ale z wiedzy wszystkich organizacji globalnie, z analizy Fred’s Signals. 

Oczywiście tutaj Microsoft ma ogromny dział, który zajmuje się wyłącznie analizą tych sygnałów cyberbezpieczeństwa infrastruktury, który czasami nawet udostępnia raporty, że wykrył nową grupę hakerską na całym świecie. Mamy wiedzę dużo większą niż pojedynczy dział z bezpieczeństwa w organizacji i czasami umożliwia to nam chronić dane naszych klientów nawet bez jakichkolwiek ingerencji ze strony działów w security. To jest coś, co już my automatycznie uszczelniamy w tej infrastrukturze. Oczywiście gdyby klient miał wyłącznie on-prem, to musi brać na siebie pełną odpowiedzialność za ten proces. 

Z drugiej strony jest też kwestia infrastruktury i bezpieczeństwa infrastruktury fizycznej. Tutaj często się właśnie spotykamy z takim mentalnym wyzwaniem, że jak czegoś nie widzimy, to to nie jest bezpieczne. I to jest błędne myślenie. Prawda jest taka, że ja tutaj mogę mówić o Microsoftowych centrach danych. To są tak trudno dostępne fizycznie lokalizacje. 

Mówimy tutaj o oczywiście o wszystkich dostępach. Osobiście, będąc Data Center Leadem tuta, byłam sama w data center dwa razy. Za każdym razem musiałam mieć po prostu długą listę przepustek. Bo kto wchodzi? Wchodzą tylko wyłącznie osoby, które są niezbędne on-site, czyli technicy. Czy ci technicy też ze względu na zarządzanie centrum informacji w ogóle nie do końca wiedzą, jakie informacje są przechowywane, w których miejscach, oni tylko wiedzą, co mają zrobić, i nigdy się nie dowiedzą, ponieważ mamy rozdzielenie ludzi, którzy zarządzają tym, co jest przechowywane, gdzie, w których serwerach, vs ci, którzy faktycznie mają fizycznie do nich dostęp. 

To bezpieczeństwo jest bardzo wysoko zapewniane w przypadku centrum danych hyperscalerowych, takie fizyczne. Czasami pojawiają się też pytania: okay, a wchodzimy w chmurę, to co, jak to będzie jedna lokalizacja? Powiedzmy, mamy klienta, który ma dwa swoje data centers, to już byłby rozwinięty klient, ma swoje dwa data centers, pomiędzy którymi ma replikację danych. I tutaj: ale w Polsce macie na przykład jeden region chmurowy, tak? To jak to jeden, a my mamy dwa? I tutaj też warto o tym pamiętać, że to nie jest tożsame z centrum danych, bo na jeden współczesny region chmurowy składa się kilka centrów danych. 

W przypadku Azure Poland Central mamy akurat trzy osobne lokalizacje oddalone od siebie o kilka, kilkanaście kilometrów, więc nawet decydując się tylko na jeden region, czyli w Polsce (zachowując te dane w Polsce), klienci mogą automatycznie mieć dostęp do trzech niezależnych fizycznych lokalizacji przechowywania danych. Więc to bezpieczeństwo na pewno możemy zapewnić, jeżeli chodzi o liczbę kopii danych, fizyczny dostęp do dysków, na których te dane są przechowywane, ale tutaj musimy koniecznie pamiętać o tym współdzieleniu, czyli też o edukowaniu, o tym, żebyśmy jako organizacja mieli zawsze in-house w swoim zespole kogoś, kto jest ekspertem od bezpieczeństwa chmurowego, kto potrafi skonfigurować to odpowiednio, kto faktycznie rozumie, gdzie ta granica bezpieczeństwa i odpowiedzialności przechodzi. 

W przypadku Azure Poland Central mamy akurat trzy osobne lokalizacje oddalone od siebie o kilka, kilkanaście kilometrów, więc nawet decydując się tylko na jeden region, czyli w Polsce (zachowując te dane w Polsce), klienci mogą automatycznie mieć dostęp do trzech niezależnych fizycznych lokalizacji przechowywania danych. Więc to bezpieczeństwo na pewno możemy zapewnić, jeżeli chodzi o liczbę kopii danych, fizyczny dostęp do dysków, na których te dane są przechowywane, ale tutaj musimy koniecznie pamiętać o tym współdzieleniu, czyli też o edukowaniu, o tym, żebyśmy jako organizacja mieli zawsze in-house w swoim zespole kogoś, kto jest ekspertem od bezpieczeństwa chmurowego, kto potrafi skonfigurować to odpowiednio, kto faktycznie rozumie, gdzie ta granica bezpieczeństwa i odpowiedzialności przechodzi. 

 

Mówmy tu o licznych zaletach infrastruktury w chmurze wynikającej ze skali, wynikającej z poziomu innowacji, to jest zdecydowanie niezaprzeczalne. Chciałbym Cię jednak zapytać, czy są jakieś, albo czy znasz, może natknęłaś się na jakieś sytuacje, czy też momenty w rozwoju projektu, firmy, może jakieś ograniczenia zewnętrzne, które mimo wszystko byłyby przesłanką ku temu, że może lepiej zdecydować się na tę inwestyturę on-prem. Czy są jakieś reguły, według których możemy zdecydować, która z tych opcji jest dla nas lepsza?

 

Na pewno decyzja, czy wchodzić w chmurę, czy zostawać on-prem, ale też, co myślę, jest najpopularniejsze, czyli czy zdecydować się na jakieś rozwiązanie hybrydowe, należy do każdej organizacji indywidualnie, która musi spojrzeć sobie prosto w oczy, w lustro i powiedzieć: Tak, jestem gotowy, żeby faktycznie przenieść to.

Bardzo dużą blokadą u klientów we wchodzeniu w chmurę jest po prostu brak umiejętności. Zdecydowanie w chmurę trzeba wchodzić, kiedy mamy ten poziom kontroli wewnętrzny, poziom wiedzy. Nie rekomendowałabym takich sytuacji, w których ktoś nie ma swoich pracowników gotowych do obsługi infrastruktury chmurowej, zleca projekt na zewnątrz i potem zostaje bez wsparcia i bez wiedzy, jak tym zarządzać dalej. Więc to jest taka blokada, o której mówimy.

Oczywiście ci klienci nie muszą stać w miejscu, mogą cały czas rozwijać swoje działy IT. My też jako Microsoft mamy ogromne poczucie takiej odpowiedzialności za ten polski rynek. Dlatego też ogłaszając, że będziemy tutaj wchodzić z tym [nz? 26:00 ] chmurowym, podjęliśmy rękawicę, że będziemy intensywnie szkolić profesjonalistów i studentów na polskim rynku. I mogę powiedzieć, że w tym momencie ponad 430 tys. osób od 2020 roku udało nam się przeszkolić takimi szkoleniami Microsoftu. Więc to jest takie też współdzielone. My też jako hyperscaler musimy wspomagać te organizacje, żeby były gotowe do wchodzenia w chmurę, ale to jest taki jeden czynnik.

Drugi czynnik to oczywiście są te organizacje, które zdecydowały się zainwestować w swoje już w tym momencie centra danych. W szczególności te takie większe, które może mają dwa centra danych, może faktycznie wybudowane specjalnie na swoje potrzeby. Te koszty już zostały poniesione, więc często się pojawiają pytania, czy faktycznie już wykorzystaliśmy tę infrastrukturę, którą mamy, bo przeniesienie jej do chmury to też jest jakiś tam koszt migracji.

Co wtedy zrobić z tymi centrami danych? Tutaj popularniejsze się stają wtedy scenariusze, powiedzmy hybrydowe w tych pierwszych krokach. Oczywiście są scenariusze też decommissioning data centers, coraz więcej klientów się na to decyduje, na całkowite przeniesienie kosztów ze swoich własnych na outsourcing, z CAPEX-u na OPEX, ale wymaga to, jak wiadomo, dyskusji nie tylko z działem IT, ale też ogólnie ze strategią biznesową, kogo my chcemy zatrudniać, czy my chcemy zatrudniać tych techników, data center, czy my chcemy faktycznie posiadać te serwery, czy jednak wolimy to zlecić dostawcy chmurowemu.

Pojawiają się również czasami takie software’owe przesłanki, żeby używać on-premowej architektury, ale myślę, że to są rzeczy, które pojawiały się na polskim rynku wcześniej. W tym momencie mamy już lokalnie operujących hyperscalerów Microsoft, mamy też oczywiście Google’a z Google Cloudem, tak że mamy dwóch dostawców hyperscalerowych. Ale kiedyś słyszeliśmy o tym, że nie możemy wchodzić w Chmurę, bo czas odpowiedzi pomiędzy regionem, który jest w Dublinie czy w Amsterdamie jest zbyt długi dla pewnych aplikacji, które mają wysoką wrażliwość, i że lepiej jednak jest to gdzieś lokalnie hostować, lokalnie procesować, żeby doświadczenie użytkowników było lepsze.

W tym momencie ta latencja się drastycznie zmienia. Jeżeli mamy region chmurowy, dostęp do Azure’a w Polsce, to faktycznie, czas odpowiedzi jest na tyle krótki, że ten argument raczej już przechodzi do historii. Warto o tym też mówić, bo wiadomo, że czasami rzeczy się zmieniają z otwarciem takiego regionu, i to też, o czym często słyszeliśmy wcześniej, a w tym momencie warto przypominać tym wszystkim osobom, które mówiły: Ale to już 4 lata sprawdzaliśmy temu, to był zły test, że może warto jednak się zastanowić, bo możemy korzystać z chmury teraz właśnie w nowych scenariuszach.

 

O tych zmianach chciałbym porozmawiać, bo o ile te usługi hyperscalerów znacząco wpływają na branżę, na rozwój tego, w jaki sposób pewne trendy tutaj się rozwijają, które trendy wypływają, które gdzieś tam zanikają. Natomiast myślę, że działa to też w drugą stronę, czyli trendy odbijają się na tym, w jaki sposób te firmy dostarczające infrastruktury, usługi, dopasowują te właśnie usługi po to, żeby nadążyć za trendami, żeby dostarczyć takie usługi, które będą się w te trendy wpasowywały.

Tutaj właśnie myślę o AI, myślę o blockchainie, myślę o tych komputerach kwantowych, o których wspomniałaś. W jaki sposób te dwie rzeczy, te trendy i usługi, infrastruktura hyperscalerów na siebie wzajemnie wpływają?

 

Przede wszystkim nie stawiamy tych serwerów dla siebie, stawiamy je dla klientów, tak że to jest nieustający dialog. Osobiście miałam przyjemność rozmawiać z dziesiątkami podmiotów na polskim rynku, z partnerami, z firmami – jakie mają potrzeby, jakie innowacje chcą wprowadzać, może jakie nowe projekty chcieliby odpalić właśnie teraz, mając możliwość po raz pierwszy korzystania z tej infrastruktury, ale przechowując to w Polsce. Więc zdecydowanie jest to dwustronny dialog. Myślę, że na każdym rynku, na którym Microsoft posiada centra danych, ten dialog się nieustająco toczy, zarówno bezpośrednio, jak i oczywiście przez pewne trendy, analizy tego, czego ci klienci używają.

Z naszej strony, tak jak powiedziałam, to jest duża inwestycja, tak że zdecydowanie widzimy, że te zapotrzebowanie klientów na obliczeniowe moce AI-owe jest ogromne, więc są coraz to nowsze regiony, w których ta infrastruktura się pojawia.

Zapewne będzie to trwało, to nie jest coś, co jest chwilowym boomem. Te projekty, które są odpalane, faktycznie generują comiesięczne wykorzystywanie tego hardware’u na całym świecie, więc mam nadzieję, że w tę stronę będziemy to rozwijać i oczywiście to jest też otwarty system kolaboracji. To już nie są te czasy, kiedy firmy typu Microsoft zamykały się i mówiły: Nie, robimy wszystko bez was na zewnątrz. Więc jest ogromna też rola naszych partnerów, wszystkich firm [nz? 31:06 ] na całym świecie, które pokazują nam, gdzie te trendy są w poszczególnych sektorach gospodarki, w poszczególnych geografiach i faktycznie pracując bardzo blisko z inżynierami, na skalę globalną, pomagają nam tutaj te road mapy nowych usług i bezpośrednio usług w konkretnych regionach rozwijać.

 

Myślę, że na koniec nie pozostaje mi nic innego niż zapytać Cię o przyszłość, o to, jakie obecnie są wyzwania, ale też okazje dla infrastruktury w chmurze, jakie potencjalne obszary rozwoju może to nam wyznaczać.

 

Myślę, że te wyzwania, które są przedmiotem naszej codziennej dyskusji, to jest bardzo dobra informacja dla naszych klientów, bo widzimy, że ten świat infrastruktury chmurowej, usług chmurowych, AI-a jest coraz bardziej regulowany.

Tutaj wszystkie te wpływy geopolityczne, wszystkie regulacje, które pojawiają się nie tylko na poziomie krajów, ale również na poziomie Unii Europejskiej, to jest dobra wiadomość dla klientów. Mamy trendy, które dają coraz większą kontrolę nad miejscem przechowywania danych, nad sposobem przechowywania danych, nie tylko [nz? 32:13 ], ale również w tranzycie. 

Bardzo dużym trendem tutaj jest faktycznie separowanie fizycznej infrastruktury, która znajduje się na obszarze Unii Europejskiej od całej reszty świata. W naszym przypadku jest to tzw. projekt EU Data Boundary, czyli naszej obietnicy dla klientów, że coraz większa ilość workloadów nie będzie w ogóle opuszczała Unii Europejskiej. To jest ogromna inwestycja po stronie faktycznie tych kabli i serwerów, ale z drugiej strony ogromny wybór i komfort dla klientów, którzy np. z sektora regulowanego jednak chcieliby mieć zapewnienie, że dane są przechowywane w obrębie Unii Europejskiej.

To są też tematy, które dla nas są ważne, naszym klientom ułatwiają trochę podejmowanie decyzji operacyjnych, czyli np. dostęp do energii w sytuacji kryzysu energetycznego, kwestie takie jak priorytetyzacja dostaw energii dla infrastruktury krytycznej na różnych rynkach. To są też takie tematy jak zapewnianie zielonego dostępu do energii. Wchodząc na rynek, mamy szansę podpisać tutaj umowę na 7–10 lat do przodu, co pozwala nam być partnerem w rozwoju sieci energetycznej w danym kraju tak naprawdę. Tutaj jeżeli powiemy: za 3 lata chcielibyśmy mieć taki i taki procent energii zielonej, a jednocześnie podpisujemy te 10 lat przewidywalnych kontraktów, bo wiadomo, że jak otwieramy takie centra danych, to mówimy 3, 5, 7 lat do przodu jak one będą rosły. Możemy też wywrzeć tutaj pewne inwestycyjne presje na to, żeby to były coraz bardziej zielone operacje.

Więc to są rzeczy, o których my rozmawiamy na wielu rynkach, ale myślę, że to są wszystko wspaniałe wiadomości dla naszych klientów, bo w tych miejscach, gdzie nam jest może trochę trudniej, tak jak kiedyś kilka lat temu mieliśmy sytuację z RODO, z GDPR-em – cóż możemy zrobić?

My musimy się do tego dostosować, przecież nie zrobimy nic innego. I taki klient w takim momencie, który albo mógłby tak samo jak my stać gdzieś w boku i dostosowywać się do tych zmieniających się regulacji z własną infrastrukturą, albo może mieć jednak ten komfort psychiczny, że korzysta z infrastruktury hyperscalera, który wie o tym, że musi się do tego przygotować, który się przygotuje do tego wcześniej. 

My nie mamy planu B, nie pozostaje nic innego niż być gotowym na takie zmiany regulacyjne. To też jest duży komfort, nie tylko właśnie jeżeli chodzi o utrudnienie techników, kupowanie serwerów, wstawianie po prostu do tych hal kolejnych komputerów, ale też o cały ten ekosystem regulacyjny i bezpieczeństwa koniec końców danych ich klientów i ciągłości operacji działów IT.

Bardzo dużym trendem tutaj jest faktycznie separowanie fizycznej infrastruktury, która znajduje się na obszarze Unii Europejskiej od całej reszty świata. W naszym przypadku jest to tzw. projekt EU Data Boundary, czyli naszej obietnicy dla klientów, że coraz większa ilość workloadów nie będzie w ogóle opuszczała Unii Europejskiej. To jest ogromna inwestycja po stronie faktycznie tych kabli i serwerów, ale z drugiej strony ogromny wybór i komfort dla klientów, którzy np. z sektora regulowanego jednak chcieliby mieć zapewnienie, że dane są przechowywane w obrębie Unii Europejskiej.

 

Dzisiaj miałem okazję rozmawiać z Martą Gasik, a poruszaliśmy temat infrastruktury w chmurze z perspektywy hyperscalera. Marta Gasik z Microsoftu. Marta, bardzo Ci dziękuję za dzisiejsze spotkanie, za dzisiejszą rozmowę.

 

Dziękuję, Krzysztof.

 

Powiedz, proszę, jeszcze na koniec, gdzie Cię można znaleźć w internecie, gdzie możemy odesłać słuchaczy.

 

Ja serdecznie zapraszam do siebie na LinkedIna, jeżeli faktycznie ktoś poczuł, że te tematy, które dzisiaj poruszamy, są mu bliskie albo mogłyby być bliższe i ma jakieś pytania, to zapraszam serdecznie. Jestem dostępna przez LinkedIna.

 

Oczywiście link będzie w notatce do tego odcinka. Jeszcze raz Ci, Marta, bardzo dziękuję. Do usłyszenia. Cześć!

 

Dziękuję.

 

I to tyle z tego, co przygotowałem dla Ciebie na dzisiaj. Po więcej wartościowych treści zapraszam Cię do wcześniejszych odcinków. A już teraz, zgodnie z tym, co czujesz, wystaw ocenę, recenzję lub komentarz aplikacji, której słuchasz lub w social mediach.

Zawsze możesz się ze mną skontaktować pod adresem krzysztof@porozmawiajmyoit.pl lub przez media społecznościowe.

Ja się nazywam Krzysztof Kempiński, a to był odcinek podcastu Porozmawiajmy IT o infrastrukturze w chmurze. Zapraszam do kolejnego odcinka już wkrótce.

Cześć!

 

Bądź przygotowany na to, co przyniesie jutro z Farnell. Twój dostawca komponentów do projektów IoT i sponsor tego odcinka. Odwiedź nas na farnell.com.

 

+ Pokaż całą transkrypcję
– Schowaj transkrypcję
mm
Krzysztof Kempiński
krzysztof@porozmawiajmyoit.pl

Jestem ekspertem w branży IT, w której działam od 2005 roku. Zawodowo zajmuję się web-developmentem i zarządzaniem działami IT. Dodatkowo prowadzę podcast, kanał na YouTube i blog programistyczny. Moją misją jest inspirowanie ludzi do poszerzania swoich horyzontów poprzez publikowanie wywiadów o trendach, technologiach i zjawiskach występujących w IT.