Przetwarzanie w chmurze to temat, który zyskuje na znaczeniu, a jego wpływ jest znacznie szerszy, niż wielu może myśleć. Nie ogranicza się on jedynie do sfery biznesowej, gdzie tradycyjne serwery lokalne zostały zastąpione bardziej elastycznymi rozwiązaniami zewnętrznymi. Nawet osoby bez specjalistycznej wiedzy korzystają z danych przechowywanych w chmurze, używając platform takich jak Google Photos czy Netflix. Ale czy jesteśmy świadkami nowej rewolucji w tym obszarze?
Przyjrzyjmy się koncepcji Edge Computing. Ten nowatorski model przetwarzania ma na celu zbliżenie zasobów informatycznych do użytkowników, którzy z nich korzystają. Jest to szczególnie istotne w przypadku aplikacji, gdzie czas reakcji ma kluczowe znaczenie i niskie opóźnienia są niezbędne. Oto, co warto wiedzieć na ten temat.
Początki serwerów
Aby zrozumieć, dlaczego Edge Computing ma sens, warto spojrzeć na jego kontekst historyczny, zaczynając od początków.
W świecie IT dla dużych firm panowała statyczność. Pracownicy często spędzali długie godziny przy komputerach w jasnym świetle halogenów. Dlatego lokalizacja danych oraz kluczowych aplikacji w bliskiej odległości była logiczna. Firmy instalowały serwery w dobrze wentylowanych pomieszczeniach lub wynajmowały przestrzeń w lokalnych centrach danych.
Z biegiem czasu sytuacja się zmieniła. Coraz więcej osób zaczęło pracować zdalnie, a firmy rozszerzały swoją działalność, otwierając biura w różnych miastach i krajach. W rezultacie lokalne serwery stały się mniej funkcjonalne – szczególnie w kontekście rosnącego wykorzystania Internetu przez konsumentów. Firmy technologiczne napotykały trudności w skalowaniu, zmuszone do ciągłego zakupu nowych serwerów.
Z pomocą przyszły usługi przetwarzania w chmurze, takie jak Microsoft Azure oraz Amazon Web Services (AWS), które umożliwiły firmom wynajmowanie przestrzeni serwerowej i dostosowywanie się do dynamicznych warunków rynkowych.
Wadą obecnego modelu przetwarzania w chmurze jest jego scentralizowana natura. Choć dostawcy, tacy jak Amazon, Microsoft i Google, posiadają centra danych w wielu miejscach, często są one oddalone od klientów o setki, a nawet tysiące mil.
Na przykład, będąc w Edynburgu w Szkocji, najbliższe centrum danych AWS znajduje się w Londynie, oddalonym o około 330 mil. Z kolei w Lagos w Nigerii, najbliższa lokalizacja AWS w Afryce znajduje się w Kapsztadzie, prawie 3000 mil stąd.
Większa odległość oznacza wyższe opóźnienia. Warto pamiętać, że dane są po prostu światłem poruszającym się przez światłowody, a ich transfer jest ograniczony przez prawa fizyki.
Jakie jest więc rozwiązanie? Wydaje się, że odpowiedzią jest powrót do korzeni i przybliżenie serwerów do ich użytkowników.
Życie na krawędzi
Podsumowując, Edge Computing polega na przybliżeniu aplikacji oraz przechowywania danych do lokalizacji ich użytkowników. Dla dużych przedsiębiorstw może to oznaczać stworzenie dedykowanego serwera blisko ich głównych biur. Z perspektywy konsumenta warto pomyśleć o urządzeniach IoT, które wykonują określone zadania, takie jak rozpoznawanie twarzy, korzystając z lokalnych zasobów obliczeniowych, zamiast przesyłać dane do chmury.
To rozwiązanie przynosi wiele korzyści. Po pierwsze, zmniejsza ilość danych przesyłanych przez sieć. Wiele dużych przedsiębiorstw często ponosi wysokie koszty związane z transferem danych między centrami, zatem sensowne jest, aby zbliżyć je do źródła.
Po drugie, obniża opóźnienia. Często znaczna część czasu potrzebnego na realizację zadania pochłania transfer danych. Przeniesienie obliczeń bliżej użytkowników może znacznie przyspieszyć procesy.
Może to również otworzyć drzwi do nowych form przetwarzania danych, dla których kluczową cechą jest natychmiastowość. Przykładem mogą być „inteligentne miasta”, które umożliwiają lokalnym władzom zbieranie danych w czasie rzeczywistym dotyczących m.in. zużycia energii czy natężenia ruchu, co pozwala na szybkie podejmowanie decyzji.
Edge Computing ma również potencjalne zastosowania w przemyśle, umożliwiając producentom zbieranie informacji o sprzęcie oraz wprowadzanie szybkich poprawek, co może prowadzić do mniejszego zużycia energii oraz dłuższej żywotności urządzeń.
Z perspektywy konsumenta, przetwarzanie brzegowe może znacząco poprawić doświadczenia związane z grami w chmurze. Jeśli obliczenia graficzne odbywają się bliżej graczy, rzadziej będą oni doświadczać irytującego opóźnienia, które może przesądzić o wyniku gry online.
Rola 5G
Wraz z rozwojem Edge Computing, do gry wchodzi również technologia 5G. Choć wciąż jest w fazie wczesnego rozwoju, 5G obiecuje znacznie mniejsze opóźnienia w porównaniu do wcześniejszych standardów mobilnych. W związku z tym można się spodziewać, że odegra kluczową rolę w rozwoju przetwarzania brzegowego.
Co to oznacza? W dziedzinie logistyki większy nacisk zostanie położony na analizy i dane, ponieważ pojazdy będą przesyłać informacje do analiz w czasie rzeczywistym. Istnieje również możliwość wprowadzenia „inteligentnego rolnictwa”, które zautomatyzuje wiele procesów w produkcji żywności, zwiększając plony i minimalizując straty.
Z perspektywy konsumenckiej, przeniesienie obliczeń bliżej użytkowników otworzy nowe, bardziej immersyjne doświadczenia rozrywkowe, takie jak wirtualna rzeczywistość (VR), rozszerzona rzeczywistość (AR) oraz gry.
Oczywiście, to wciąż odległa wizja. Operatorzy i programiści muszą najpierw stworzyć odpowiednią infrastrukturę. Jednak gdy to nastąpi, możemy spodziewać się równie przełomowych zmian, jakie miały miejsce, gdy chmura obliczeniowa zyskała na znaczeniu.