Firma analityczna Garnter ocenia, że do końca 2022 roku ponad 50 proc. danych będzie tworzonych poza chmurą czy centrum danych. To daje sporą przestrzeń na rozwój przetwarzania brzegowego, czyli inaczej edge computingu. - Korzystając z nowych możliwości, przedsiębiorstwa będą inwestować w miejscach, w których do tej pory było to trudne i kosztowne - przekonuje w rozmowie z WNP.PL Kajetan Mroczek, Senior System Engineer w firmie Dell Technologies.
- Tak, albo ich nie ma w ogóle, albo przepadają, bo nie jesteśmy w stanie ich przetworzyć.
Tymczasem technologie otwierają dziś przed nami nowe możliwości. Choćby telekomunikacja zrobiła duży krok do przodu.
Mamy już 5G, które wcale nie musi być zastrzeżone dla operatorów telekomunikacyjnych. Za budowę sieci 5G na własne potrzeby mogą brać się także firmy, zwłaszcza te duże. Przykładem jest tu Orlen, który testuje łączność 5G na terenie rafinerii w Płocku - właśnie po to, żeby wykorzystać rozmaite dane spływające z urządzeń pomiarowych, sensorów oraz maszyn.
Myślę, że jeśli chodzi o prywatne 5G, inne firmy przemysłowe też zainteresują się tą technologią, choćby ze względu na jej niezawodność, przepustowość i małe opóźnienia w transmisji danych.
Z drugiej strony mamy też postęp w dziedzinie komunikowania się ze sobą urządzeń, czyli Internetu rzeczy. Te rozwiązania są coraz lepsze i coraz tańsze.
Obydwa wspomniane czynniki stwarzają dobre warunki do dynamicznego rozwoju edge computingu.
Jaka jest obecnie świadomość wśród kadr menedżerskich i właścicieli przedsiębiorstw na temat tego, czym jest przetwarzanie brzegowe? Wiedzą oni, że mogliby wykorzystywać więcej danych niż teraz i że mogą wiele z nich przetwarzać na miejscu?
- Na podstawie obserwacji polskiego rynku mogę powiedzieć, że klienci, z którymi współpracuję, mają często fantastyczne pomysły. Często realizują je własnymi siłami, choć oczywiście, jeśli nie mają zespołu programistów, to angażują do tego jakiegoś partnera.
Być może nie każdy nazywa to edge computingiem czy przetwarzaniem brzegowym, bo też przedsiębiorcy nie kupują jakiejś technologii dla samej technologii, tylko żeby osiągnąć określony efekt. Mają po prostu coraz większy wybór narzędzi do osiągania celów i jestem przekonany, że będą potrafili z tego dobrze korzystać.
Zaczął pan od przykładów obiektów i instalacji w terenie, gdzie nie ma dostatecznie dobrej łączności do przesyłania dużych wolumenów danych. Ale czy na przetwarzaniu brzegowym mogą skorzystać też inni, którzy z łącznością nie mają żadnych problemów?
- Na pewno wszyscy ci, dla których ważne są czas i niezawodność przetwarzania.
Dla wielu zakładów zatrzymanie linii produkcyjnej wiąże się z poważnymi konsekwencjami. W przypadku jednego z klientów, z którymi rozmawiałem, wiązało się to z koniecznością bardzo kosztownej utylizacji praktycznie wszystkich produktów na linii!
Niektóre systemy związane z produkcją, jeśli mają działać efektywnie, muszą korelować spływające wieloma strumieniami dane w ułamku sekundy i podejmować natychmiast decyzje. W takim przypadku wysyłanie danych do chmury jest ryzykowne - w tym sensie, że opóźnienia są tu dużo większe. Regiony operatorów chmurowych nie zawsze są w miejscu, w którym stoi fabryka. Dodatkowo dochodzi problem zabezpieczenia - na wypadek awarii - czy to łącza, czy odległego systemu.
Przykładem systemów instalowanych na miejscu i analizujących mnóstwo danych są rozwiązania przewidujące możliwość zatrzymania maszyny w wyniku przedwczesnego zużycia jakiejś części. Pozwala to na przygotowanie się do serwisowania w dogodnym terminie zamiast zaskakującego wszystkich zatrzymania produkcji. Inwestycja w taki system może zwrócić się bardzo szybko.
Systemy, które pracują w centrum danych firmy czy chmurze, powinny raczej służyć do analityki danych długookresowych, spływających z wielu zakładów lub z wielu punktów i do wyciągania wniosków typu zarządczego.
Dane pochodzące z urządzeń, które trzeba natomiast "obrobić" na bieżąco i podjąć natychmiastową decyzję, albo dane, których wartość jest istotna tylko przez kilka sekund, powinny być przetwarzane w miejscu ich powstawania.
Dobrym przykładem jest tu też transport autonomiczny. Na drogach publicznych oczywiście nie mamy jeszcze autonomicznych pojazdów, ale za ogrodzeniami różnych zakładów takie rozwiązania zaczynają już funkcjonować. Tu też przecież nie ma sensu przesyłać większości danych gdzieś daleko, bo czas decyduje o tym, czy taki pojazd z czymś lub kimś się nie zderzy. Chodzi zatem nie tylko o koszty finansowe, ale także bezpieczeństwo pracowników.
Wspomniał pan już o łączności 5G, ale to chyba niejedyne rozwiązanie, z którego może korzystać przetwarzanie brzegowe?
- Rzeczywiście, mamy też nowe standardy wi-fi, które zapewniają bardzo dobre parametry. Poza tym to też nie jest tak, że każdorazowo musimy przebudowywać łączność, którą już mamy w przedsiębiorstwie.
Akurat Dell Technologies proponuje wiele rozwiązań, które działają dobrze na już rozpowszechnionych systemach łączności przemysłowej. Wpinamy się w istniejącą sieć i tak ją wykorzystujemy, żeby wszystko razem pracowało dobrze. Wiele zależy tu po prostu od aktualnych potrzeb przedsiębiorstwa.
O jakiej skali inwestycji w sprzęt mówimy przy edge computingu?
- To bardzo trudne pytanie, bo wszystko zależy od potrzeb, jakim mamy sprostać.
Z jednej strony to może być na przykład potrzeba wstępnego opracowania sygnałów płynących co sekundę z czujników, że wszystko jest dobrze. Skoro jest dobrze, a czujników zainstalowano tysiąc, to może nie ma sensu wysyłać do analizy tych informacji pojedynczo, ale lepiej jest zapakować je w jedną paczkę, w ten sposób odciążając łącze...
Do takiej operacji nie trzeba wielkiej mocy, ale potrzebna jest możliwość łatwego połączenia rozmaitych czujników, które z punktu widzenia IT często korzystają z mocno egzotycznych protokołów czy złącz. Można tu zastosować dość tanie urządzenie, jakim jest Edge Gateway. Warto od razu dodać, że niejedyny scenariusz jego wykorzystania, ale nie jest to urządzenie o największej mocy.
Jeśli zaś ktoś chce w zdalnej lokalizacji realizować bardziej zaawansowane czynności, to do takich zadań proponujemy serwery PowerEdge z serii XR zaprojektowane do pracy w trudniejszych warunkach. I tutaj mocy obliczeniowej już raczej nie zabraknie - nawet jeśli ktoś chciałby wykorzystać w jakiejś odległej lokalizacji algorytmy sztucznej inteligencji, co zdarza się coraz częściej. W takim wypadku można nawet zainstalować w serwerze odpowiedni akcelerator GPU.
Mamy też rozwiązanie hiperkonwergentne VxRail bazujące na wzmocnionej architekturze. Możliwe jest nawet zbudowanie całkiem sporej instalacji oferującej w takiej odległej lokalizacji wirtualizację. Warto dodać, że jest to nie tylko rozwiązanie kompletne – bo zapewnia i moc obliczeniową, i zabezpieczoną przed awarią pamięć masową, ale przede wszystkim - łatwe w skalowaniu, zarządzaniu i utrzymaniu.
To niezwykle ważny aspekt. Dążymy do prostoty w zrządzaniu. Staramy się, by zarządzanie infrastrukturą, do której IT ma trudniejszy - z racji odległości - dostęp, odbywało się w taki sam sposób, jak zasobami w data center.
Chodzi o to, żeby to nie były dwie różne filozofie działania, ale jeden schemat. Jeśli dokładamy nowe funkcje, to nie komplikujemy tego nową logiką, tylko staramy się podążać za tą, która już jest w przedsiębiorstwie - i w ten sposób ułatwiać życie pracownikom IT.
A co z cyberbezpieczeństwem? Jest coraz więcej punktów, które się z sobą komunikują - czy to nie jest zarazem większe wyzwanie na tym polu?
- Tak, to zawsze jest wyzwanie i oczywiście musimy o tym myśleć - tak w kontekście zarządzania czy aktualizacji infrastruktury, jak i na przykład szyfrowania danych składowanych czy wysyłanych do analityki.
Sporo zabezpieczeń staramy się wbudować w same urządzenia - tak, żeby przez pomyłkę czy z powodu czyichś działań nie zostały one uszkodzone lub przejęte.
Czytaj również:
Edge-IoT Alliance ustanowi standardy dla urządzeń brzegowych
Patrząc na zagadnienie szerzej: ważne, żeby dostawcy pracowali nad bezpiecznymi standardami przemysłowymi. Wtedy łatwiej zapewnić bezpieczeństwo i Dell Technologies bierze udział w takich inicjatywach.
Dla przedsiębiorcy zawsze ważny jest zwrot z inwestycji. Jak to wygląda w przypadku inwestycji w przetwarzanie brzegowe? Może jakieś przykłady?
- Mówiłem już o planowaniu serwisowania na podstawie obserwowanego zużycia maszyn, ale weźmy przykład centrum dystrybucyjnego. Dział IT przygotował tu system, który na podstawie zapisu kamer przemysłowych weryfikował i dokumentował sposób ładowania produktów do ciężarówek.
Wcześniej firma miała problem z tym, że pewna część transportów docierała do klientów w stanie dalekim od ideału. Nie było wiadomo, czy koszt zniszczonych rzeczy miał obciążać producenta czy przewoźnika.
Z tego, co wiem, nie był to bardzo drogi projekt i przy założeniu przewozu dość drogiego towaru mógł się zwrócić już po pierwszym nieudanym transporcie.
A zatem zwrot z inwestycji może być bardzo szybki, zwłaszcza że sprzęt do edge computingu nie jest drogi. W dodatku ponieważ nie ma wielkich wymagań co do warunków, w których pracuje, koszty związane z jego eksploatacją są również niższe.
Jeśli tak, to będziecie mieć coraz więcej pracy, bo przetwarzanie brzegowe rzeczywiście powinno zyskiwać na popularności.
- Tak, wierzymy, że ilość danych, które będą przetwarzane z dala od data center, będzie rosła.
Korzystając z nowych możliwości, przedsiębiorstwa będą inwestować w miejscach, w których do tej pory było to trudne i kosztowne. I analizować coraz większe pule rozmaitych danych, usprawniając dzięki nim swe działanie i podnosząc efektywność albo tworząc zupełnie nowe produkty i usługi.