Chmura obliczeniowa. Dowiedz się, gdzie trafiają twoje dane

Trudno przecenić wygodę, jaką zapewniają nam usługi, działające w chmurze. Co istotne, nie jesteśmy skazani na to, co udostępnią nam duże, dysponujące potężną infrastrukturą firmy – rozwiązania tego typu możemy niewielkim kosztem uruchomić we własnym domu.

Zdjęcie światłowodów i kabli sieciowych pochodzi z serwisu Shutterstock

Zdjęcie światłowodów i kabli sieciowych pochodzi z serwisu Shutterstock

Maile w chmurze, czyli gdzie trafiają nasze dane?

Robisz zdjęcie smartfonem, zapisujesz dokument w edytorze tekstu, ustawiasz spotkanie w kalendarzu albo po prostu dodajesz jakąś stronę WWW do ulubionych? Każdy z nas wykonuje te lub podobne czynności każdego dnia. Zazwyczaj nie zastanawiamy się przy tym nad drogą, jaką pokonują wysyłane przez nas informacje ani nad samym faktem, że opuszczają one sprzęt, z którego właśnie korzystamy.

Tymczasem zwykły mail, wysłany do naszego sąsiada może – zanim zostanie przez niego wyświetlony na jakimś ekranie – dosłownie obiec cały świat. I nie chodzi tu nawet o wnikliwe śledzenie drogi, jaką przebywają tworzące wiadomość pakiety danych. Istotne jest coś innego – miejsce, w którym nasz email zostanie zapisany.

Zdjęcie otwartego laptopa pochodzi z serwisu Shutterstock

Nawet, jeśli nie znamy dokładnej lokalizacji serwera, nie będzie błędem stwierdzenie, że nasz mail trafił do chmury obliczeniowej któregoś z dostawców usługi, jak Google czy Microsoft.

Do chmury, czyli do czego?

Aby zrozumieć specyfikę chmury, dobrze posłużyć się przykładem. Gdy kupujemy dla siebie komputer, płacimy – poza kwestiami związanymi z marką, serwisem i marketingową otoczką – za fizyczne podzespoły. Kupujemy model, wyposażony w konkretny procesor, pamięć czy dysk o określonej pojemności. Płacimy za to raz i sprzęt jest nasz, gotów do działania gdy tylko będziemy go potrzebować.

W praktyce większość osobistych komputerów, poza rzadkimi i ekstremalnymi przypadkami, nie pracuje 24 godziny na dobę. Włączamy je wtedy, gdy ich potrzebujemy. Co nasz sprzęt robi w pozostałym czasie? Starzeje się i traci na wartości.

Zdjęcie serwerowni pochodzi z serwisu Shutterstock

Kapitalnie zostało to przedstawione w drugim sezonie rozgrywającego się w latach 80. serialu „Halt and Catch Fire”. Toksyczny, wzorowany trochę na Jobsie wizjoner, Joe MacMillan ze zdziwieniem odkrywa tam, że w dużej, tradycyjnie prowadzonej firmie spoza sektora IT serwery uruchamiane są wyłącznie w godzinach pracy i wyłączane, gdy pracownicy opuszczają biuro.

W przypadku chmury towarem jest nie fizyczny komputer, ale oferowane przez niego możliwości. Dla dużej firmy oznacza to, że nie musi ona kupować własnych stu tysięcy serwerów, by z nich przez jakiś czas korzystać.

Skąd się wzięła chmura, czyli początki kariery Billa Gatesa

Choć termin „chmura obliczeniowa” zyskał na popularności w ostatnich latach, to sama idea nie jest nowa. Jej początki sięgają pionierskiej epoki rozwoju komputerów i globalnej Sieci, czyli czasów przedinternetowych.

Graficzny symbol chmury był wykorzystywany m.in. do oznaczania infrastruktury poprzednika internetu, czyli sieci ARPANET. Co więcej, w latach 70. komputery, choć wykorzystywane w różnych dziedzinach życia, były bardzo drogie i niedostępne dla zwykłego użytkownika. Powszechną praktyką było zatem kupowanie zdalnego dostępu do sprzętu działającego gdzieś daleko – np. w jakiejś dużej firmie czy na uczelni.

Bill Gates i Paul Allen - założyciele Microsoftu

To właśnie od oszustw na tym polu zaczęła się kariera Billa Gatesa, założyciela Microsoftu. Gdy Bill był w szkole podstawowej, rodzice wykupili dla niego i innych uczniów dostęp do komputera, działającego w firmie General Electric. Bill był wówczas w stanie wyszukać luki w oprogramowaniu, dzięki któremu zyskiwał bezpłatnie dodatkowy czas korzystania z tego sprzętu.

Chmura prywatna, czyli coś dla zwykłych użytkowników

Usługi związane z chmurami obliczeniowymi są dostępne nie tylko dla firm, ale dla każdego z nas. Korzystamy z nich na co dzień, choć zazwyczaj nie mamy powodu, by rozmyślać nad tym faktem i notować w pamięci, że właśnie korzystamy z jakiejś chmury obliczeniowej.

Przykładów nie trzeba daleko szukać – najbardziej oczywistym wydaje się oferowana przez wiele firm (zazwyczaj w modelu freemium) przestrzeń dyskowa, pozwalająca na przechowywanie online naszych plików. Z reguły jest to obudowane dodatkowymi usługami, jak edycja dokumentów, odtwarzanie multimediów czy integracja z pocztą, czego przykładem są np. usługi iCloud Apple’a, OneDrive oferowany przez Microsoft czy Google Drive.

Jeśli nie chcemy polegać na zewnętrznych usługodawcach, możemy również uruchomić własną chmurę, korzystając z należącego do nas sprzętu. Przykładem takiego rozwiązania jest usługa QNAP QSync współpracująca z serwerami NAS tej firmy.

Posiadając NAS-a możemy wykorzystać go np. do banalnie prostej synchronizacji danych pomiędzy wieloma komputerami i urządzeniami mobilnymi.

Służy do tego aplikacja QNas (dla komputerów) lub QFile (sprzęt mobilny – iOS i Android). Pliki, umieszczone w wybranym folderze będą się automatycznie synchronizować, dzięki czemu w prosty sposób udostępnimy je innym użytkownikom albo np. zadbamy o to, by na każdym urządzeniu znajdowała się aktualna wersja jakiegoś dokumentu.

Jak to robią giganci?

To samo – tylko na większą skalę – robią największe firmy z branży IT na świecie. Aby obsłużyć niewyobrażalnie duże ilości danych, budują własne lub wynajmują istniejące serwerownie, w których znajdują się dziesiątki lub setki tysięcy komputerów. Dokładne dane na ten temat nie są zazwyczaj ujawniane, ale skalę działania można oceniać m.in. po zapotrzebowaniu na energię, a także po powierzchni, pozwalającej ocenić ile – mniej więcej – serwerów znajduje się w danym obiekcie.

Szacuje się, że centra danych pochłaniają obecnie około 5 proc. energii zużywanej przez Stany Zjednoczone i odsetek ten będzie prawdopodobnie rósł. Do czego potrzeba tak wiele prądu? Najbardziej oczywiste skojarzenie, czyli zasilanie komputerów, to tylko częściowa odpowiedź. Okazuje się, że około 40 proc. energii, zużywanej przez centra danych, jest przeznaczane nie na zasilanie serwerów, ale na chłodzenie grzejącego się w czasie pracy sprzętu.

Pomysłów na kreatywne rozwiązanie tego problemu nie brakuje. Przykładem może być porozumienie pomiędzy Amazonem i władzami Seattle, zakładające, że woda, chłodząca serwerownię będzie następnie wykorzystana do ogrzewania pobliskich budynków.

Jeszcze bardziej radykalne rozwiązanie zaproponowała niemiecka firma Cloud&Heat, której serwery mają być udostępniane właścicielom domów, gdzie posłużą w roli dodatkowego źródła ciepła.

Pomysłową metodę chłodzenia opracowało Google. Amerykański gigant zaprojektował serwerownię chłodzoną… miejskimi ściekami, które nie tylko odbierają ciepło z komputerów, ale następnie są oczyszczane i wracają do obiegu jako czysta woda. Korzystają zatem wszyscy – właściciel serwerów, okoliczni mieszkańcy i w szerszym ujęciu – cała planeta, której zasoby są wykorzystywane w możliwie oszczędny sposób.

Była amunicja, są serwery

Samo chłodzenie to jednak nie wszystko. Choć największe serwerownie przypominają po prostu duże kompleksy przemysłowe, gdzie każda funkcja została zoptymalizowana pod kątem obniżania zużycia energii i minimalizowania kosztów, to inne – zwłaszcza mniejsze obiekty – prezentują się znacznie bardziej interesująco.

Przykładem niebanalnej serwerowni jest obiekt w pobliżu norweskiego miasta Stavanger. Komputery umieszczono tam w dawnej bazie NATO, w górskich jaskiniach, służących w czasie Zimnej Wojny jako magazyny amunicji. Północna lokalizacja sprzyja również łatwemu odprowadzaniu ciepła, o co dba morska woda o temperaturze zaledwie 8 stopni Celsjusza.

Pomysł na zagospodarowanie starych bunkrów pojawił się również w pobliskiej Szwecji, gdzie w Sztokholmie, a właściwie w zbudowanym pod miastem schronie przeciwatomowym umieszczono komputery. Co w tym wyjątkowego? Jeśli do wyobraźni nie przemawia sama lokalizacja i udział w filmie z Jamesem Bondem, wyjątkowe okaże się awaryjne zasilanie obiektu – w tej roli wykorzystano silniki spalinowe ze starych okrętów podwodnych.

Polska nie zostaje w tyle!

A jak to wygląda w Polsce? Nie mamy się czego wstydzić. Dowodem na to jest jedna z najnowocześniejszych serwerowni w Europie – gigantyczna inwestycja, wznoszona w Poznaniu przez firmę Beyond.pl.

Na 6 tys. metrów kwadratowych znalazło się miejsce dla około 100 tys. komputerów czyli – jak szacują inwestorzy – mniej więcej połowy tego, czym dysponuje Facebook
Obiekt, nazywany nie bez przyczyny bunkrem, jest pozbawiony okien, dostępu do niego chroni wieloetapowa procedura bezpieczeństwa, a w razie kłopotów uzbrojeni strażnicy i drony, wykrywające ewentualne zagrożenia.

Co istotne, drugie 6 tys. metrów to powierzchnia, przeznaczona na infrastrukturę, zapewniającą bezawaryjne, nieprzerwane działanie serwerów, w tym m.in. awaryjne źródła zasilania. To spore wyzwanie, bo serwerownia potrzebuje około 14 MW – mniej więcej tyle, co niewielkie miasteczko.

Najnowocześniejsza serwerownia w Polsce - wizualizacja

Zapas paliwa pozwala na 36-godzinne działanie serwerów po odcięciu zasilania, jednak — co istotne — paliwo można w razie potrzeby uzupełniać w czasie pracy generatorów. Uzupełnieniem zabezpieczeń jest automatyczny system wykrywający i gaszący ogień.

Obiekt ma najwyższy z możliwych poziom bezpieczeństwa, Tier IV, co gwarantuje, że w ciągu roku możliwa jest maksymalnie 26-minutowa niedostępność danych.

Co istotne, wdrożono w nim szereg rozwiązań, minimalizujących straty energii – przykładem mogą być projektowane na zamówienie serwery, pozbawione diod czy większości obudowy – wszystko to w celu jak najmniejszej emisji ciepła. Ponieważ problem można minimalizować, ale nie wyeliminuje się go całkowicie, to pochodzące z serwerów ciepło posłuży do ogrzania pobliskich budynków biurowych.

Bezpieczeństwo przede wszystkim

Poznańską serwerownię trudno jednak uznać za typowego reprezentanta swojej branży. Z punktu widzenia rozmachu inwestycji i zastosowanych rozwiązań to jedno z najnowocześniejszych centrów danych w Europie. A jak wyglądają zabezpieczenia w przypadku licznych, mniejszych firm?

Zdjęcie serwisanta sprzętu sieciowego pochodzi z serwisu Shutterstock

Poza oczywistymi kwestiami, regulowanymi przez prawo budowlane czy przepisy BHP, ważną kwestią są niezależne źródła zasilania, w tym również awaryjne zasilanie klimatyzacji, a gdy jakimś cudem wszystkie zawiodą, własne UPS-y i spalinowe generatory prądu, których paliwo można uzupełniać w czasie pracy.

Specjalnej uwagi wymaga również system przeciwpożarowy – ponieważ gaszenie wodą nie wchodzi w grę, na wypadek pożaru tworzy się instalacje, tłoczące do pomieszczeń obojętny gaz, a ostatnią deską ratunku pozostają gaśnice proszkowe.

Kolejną kluczową kwestią jest dostęp do Internetu, możliwy dzięki łączom, udostępnianym przez różnych operatorów:

Nasze serwery znajdują się w nowoczesnej serwerowni podpiętej łączami do 6 operatorów, co pozwala na szybkie ładowanie się stron na całym świecie. Zastosowanie protokołu BGP przy takiej konstrukcji sieci praktycznie uniezależnia nas od awarii samego łącza czy też całej sieci szkieletowej któregoś z nich. W czasie takiej awarii ruch automatycznie rozłoży się na pozostałe łącza dzięki czemu praca naszych maszyn nie zostanie zakłócona.

Domowe centrum danych

Żyjemy w czasach, gdy coraz częściej kontrolę nad kolejnymi aspektami naszego życia oddajemy różnym firmom w zamian za wygodę. Nie inaczej jest i z danymi – raczej bez większej refleksji wysyłamy nie wiadomo gdzie nasze zdjęcia, kontakty czy wiadomości, zazwyczaj nie zastanawiając się, jak działają usługi, z których na co dzień korzystamy. A przecież można inaczej!

Jedną z alternatyw jest stworzenie własnego, domowego magazynu danych. W najprostszym wydaniu będzie to po prostu zewnętrzny dysk, podłączony do komputera. Rozwiązanie takie jest banalnie proste, ale wiążą się z nim spore ograniczenia.

Dla osób, dysponujących elementarną wiedzą lub chęcią jej zdobycia alternatywą może okazać się zbudowanie własnego serwera, pozwalającego np. na gromadzenie i udostępnianie w lokalnej sieci różnych multimediów. Można w tym celu wykorzystać np. stary komputer, przez co koszty wdrożenia (ale już nie eksploatacji!) takiego rozwiązania będą bliskie zera. Szczegółową instrukcję znajdziecie w artykule Zmień stary pecet w NAS). Czego będziemy potrzebowali?

  • Obudowy z miejscem na dwa twarde dyski
  • Płyty głównej z kartą sieciową lub oddzielnej karty sieciowej
  • Napędu CD lub dwóch gniazd USB
  • 64-bitowego procesora dla oprogramowania FreeNAS (dla 32-bitowych, słabszych i starszych alternatywą o mniejszych możliwościach jest NAS4Free)

Jak widać, jest to zestaw, który z powodzeniem można złożyć z komputerowego złomu, jaki u wielu z nas znajduje się w zapomnianych zakamarkach szaf.

Jeszcze inną alternatywą jest zakup urządzenia typu NAS. Wybór takiego sprzętu jest bardzo duży – od jednodyskowych, najprostszych urządzeń po zaawansowane modele, mieszczące po 6 i więcej twardych dysków.

QNAP HS-251+

Niedawno w moje ręce trafił NAS QNAP HS-251+. Tym, co wyróżnia go już na pierwszy rzut oka jest wygląd. Z reguły sprzęt tego typu to jakiś rodzaj mniej lub bardziej wymyślnej obudowy na dysk, która raczej nie stanowi ozdoby pomieszczenia, w którym stoi. W końcu nie taka jest jej rola, a zatem nic dziwnego, że NAS-y lądują zazwyczaj w mało eksponowanych miejscach.

QNAP HS-251+ jest inny. Wyglądem i gabarytami przypomina jakiś element kina domowego, a pierwsze wrażenie okazuje się słuszne – bez problemu postawimy go np. pod odtwarzaczem Blu-Ray czy DVD albo na amplitunerze. Co oferuje ten sprzęt?

QNAP HS-251+

Urządzenie pracuje pod kontrolą 4-rdzeniowego procesora Intel® Celeron® 2.0GHz zostało wyposażone w 2 GB RAM-u. Wewnątrz znajdziemy miejsce na dwa dyski 3,5- lub 2,5-calowe o pojemności do 8 TB, które możemy połączyć w macierz RAID 0 (dyski widziane są jako jeden napęd, oferujący sumę ich pojemności) lub RAID 1 (dostępna jest pojemność jednego dysku, drugi zapewnia backup danych).

Twardy dysk WD Red

Sprzęt jest dostarczany bez dysków – w czasie testów skorzystałem z dedykowanych takim rozwiązaniom i przeznaczonych do nieprzerwanej, długotrwałej pracy dysków WD Red.

Cechą, która wyróżnia QNAP HS-251+ jest nie tylko wygląd. Miłym zaskoczeniem jest pasywne chłodzenie – brak wentylatora skutkuje absolutną ciszą. Z tyłu obudowy znajdziemy 2 gniazda LAN, HDMI i 4 USB (2 2.0 i 2 3.0). W praktyce pracujący pod kontrolą systemu QTS QNAP HS-251+ może działać jako typowy NAS i w tej roli sprawdza się doskonale, ale po podłączeniu do telewizora staje się kolejnym źródłem multimediów, do którego obsługi nie potrzebujemy komputera.

Zamiast obsługiwać NAS-a przez interfejs przeglądarkowy na komputerze, możemy podłączyć do urządzenia klawiaturę i mysz, skorzystać z dołączonego pilota albo posłużyć się smartfonem czy tabletem z aplikacją mobilną. Wartą wspomnienia funkcją jest także wsparcie dla iTunes.

Nie tylko kopia zapasowa

Niezależnie od tego, z jakiego rozwiązania postanowimy skorzystać, warto pamiętać o bezpieczeństwie danych. Całkiem niedawno, przeglądając forum poświęcone odzyskiwaniu danych ze zniszczonych nośników trafiłem na wyjątkowo trafną uwagę: normą powinno być odzyskiwanie danych z kopii zapasowej, a nie nośnika, który uległ uszkodzeniu.

W przypadku NAS-a QNAP HS-251+ nie ma z tym problemu – możemy skonfigurować go tak, by na obu dyskach były zapisywane te same dane, co pozwoli odzyskać je w przypadku awarii któregoś z nich. I choć warto pamiętać, że kopia bezpieczeństwa szczególnie cennych danych nie powinna znajdować się fizycznie w tym samym miejscu, co oryginał, to w przypadku większości domowych użytkowników RAID 1 powinien okazać się wystarczający.

Odrębną kwestią pozostaje ochrona przed cyberprzestępcami lub inwigilacją ze strony różnych służb. Przystępny poradnik, dotyczący tych zagadnień udostępnia m.in. specjalizująca się w kwestiach związanych z ochroną danych i prywatności w Sieci, Fundacja Panoptykon — można sprowadzić go do kilku podstawowych zaleceń:

  • warto szyfrować dane,
  • szyfrować można zarówno informacje przechowywane na dysku, jak i komunikację — maile, czaty, wiadomości tekstowe,
  • samodzielne szyfrowanie danych zwiększa poziom bezpieczeństwa niezależnie od zabezpieczeń, stosowanych przez dostawcę internetu,
  • w przypadku aplikacji zwiększających bezpieczeństwo warto korzystać z takich, których działanie rozumiemy,
  • zaszyfrowane dane są chronione również w przypadku kradzieży sprzętu lub zgubienia nośnika,
  • można chronić nawet wiadomości, przekazywane przez Facebooka,
  • najbardziej poufne informacje powinny być pokazywane i przekazywane poza Siecią,
  • ochrona komunikacji wymaga współdziałania dwóch stron: gdy sami posiadamy potrzebną wiedzę, warto edukować innych.

Co wybrać?

Co zatem robić, aby połączyć bezpieczeństwo i wygodę z kontrolą nad danymi? Dużo zależy od naszych oczekiwań i potrzeb – w wielu przypadkach sprawdzą się usługi, działające w chmurze publicznej.

Gdy jednak zależy nam na dostępności, kontroli i komforcie, trudno przecenić zalety, jakie zapewnia domowy NAS. Zarówno sprzęt wykonany i skonfigurowany samodzielnie, jak i gotowe, dostępne na rynku rozwiązania mają swoich zwolenników.

W pierwszym przypadku atutem może okazać się pomijalna cena, w drugim – dopracowany wygląd sprzętu, gotowość do działania od razu po wyjęciu z pudełka, prostota konfiguracji i dedykowane oprogramowanie, pozwalające docenić możliwości sprzętu zarówno najbardziej wymagającym użytkownikom, jak i osobom bez wiedzy technicznej.

Materiał powstał we współpracy z:

Podziel się:

Przeczytaj także:

Także w kategorii Technologie:

Nurkujące drony i łodzie jak statki kosmiczne: osobisty sprzęt do podróży pod wodą Sprzedawca w sklepie komputerowym - zawód ograniczonego zaufania Broń, która nie zabija. Wojna przyszłości: wszystko zniszczone, żadnych zabitych 8 cudów techniki z lat 90. Napęd ZIP, robot AIBO i pager BlackBerry. Pamiętasz je? Jak powstaje smartfon? Jeśli poznacie prawdę, być może nigdy więcej go nie kupicie Xanadu - zapomniany przodek WWW. Kto naprawdę wymyślił hipertekst? Bezpowrotnie tracimy dane. Nic po nas nie zostanie – ostrzega wiceprezes Google’a V3 - mordercza stonoga Hitlera. Największe działo drugiej wojny testowano w Międzyzdrojach „Das Marsprojekt”. Marsjańska misja Wernhera von Brauna z 1952 roku Jak prasa pisała o Internecie w 1988 roku? Quiz Gadżetomanii: Kto to powiedział? Dopasuj cytaty do znanych postaci! Ernő Rubik, człowiek schowany za kostką Binairy Talk – dane zapisane w obłokach dymu. Odczytamy je laserem Nietypowe zastosowania WD-40. Do czego można go wykorzystać? Jak oni podrabiają! Chińczycy skopiowali kuchenkę gazową Apple'a i... alpejski kurort Bałakława - tajna baza radzieckich okrętów podwodnych Niesamowity XC-120 Packplane: eksperymentalny samolot z lat 50. Hatsune Miku: oto przyszłość muzyki. Ta Japonka zawsze będzie miała 16 lat Bill Gates: kradnij pomysły, zdradzaj przyjaciół, ciężko pracuj. Tak zostaniesz miliarderem Tajny projekt NASA: dlaczego rozsypano w Kosmosie miliony miedzianych igieł? Technologiczne mity. Sony timer, czyli planowe starzenie produktów Dzień z życia śmieciarza. Kosze na śmieci pełne telewizorów, komputerów i konsol? Najdziwniejsze maszyny II wojny światowej [cz. 2]. USA i Wielka Brytania To lata! Najdziwniejsze samoloty pionierów lotnictwa