Nauka i technologie

Artur Sawicki: multi-cloud, AI i mechanika kwantowa, czyli przyszłość technologii chmurowej

Według danych 90% czołowych firm w USA inwestuje w rozwój narzędzi sztucznej inteligencji, co niesie za sobą wyzwania związane z presją na wzrost wydajności chmury obliczeniowej. W jaki sposób można rozwiązać problem przeciążenia środowisk cloud w 2024 roku, nie negatywnie wpływając na środowisko?

W 2023 r. technologia chmury stała się powszechniejsza. Obecnie jest już na tyle stabilna i bezpieczna, że przyciąga coraz więcej firm i instytucji publicznych. Chętnie przenoszą do niej swoje aplikacje i bazy danych, nawet te najbardziej krytyczne. Jeszcze kilka lat temu byłoby to nie do pomyślenia z obawy przed atakami cybernetycznymi i wyciekami wrażliwych danych.

Nowe zjawisko w „świecie chmury” to rozwój dużych algorytmów sztucznej inteligencji (LLM – Large Language Models), możliwy dzięki zaawansowanym usługom i mocy obliczeniowej technologii chmurowej.

Dynamiczny rozwój sztucznej inteligencji skutkuje skrajnym obciążeniem centrów danych, które muszą zapewnić olbrzymie przestrzenie dyskowe, moc obliczeniową i pamięć potrzebną do prawidłowego funkcjonowania modeli AI. Generatywna sztuczna inteligencja, która w krótkim czasie zdobyła 180 mln użytkowników i przetwarza 1,7 mld zapytań miesięcznie (dane z października 2023 r.), generuje miliardy zapytań każdego miesiąca, co przyczynia się do przeciążeń, zwłaszcza że 90% firm z listy Fortune 500 rozwija rozwiązania oparte na AI.

Z jakim wyzwaniem zmaga się środowisko cloud i jakie są możliwe sposoby jego rozwiązania?

Jednym ze sposobów na zwiększenie mocy obliczeniowej jest dodawanie kolejnych serwerów i tworzenie nowych centrów danych. Jednakże, ze względu na skalowalność tego procesu oraz jego wpływ na środowisko, konieczne jest znalezienie bardziej zrównoważonych rozwiązań. Centra danych generują ogromne ilości ciepła i zużywają duże ilości wody, co stanowi wyzwanie zarówno dla wizerunku, jak i finansów firm, zwłaszcza tych dążących do neutralności klimatycznej i wspierających inicjatywy ESG (Environmental, Social, Corporate Governance).

Warto rozważyć bardziej zaawansowane rozwiązania, które nie ograniczają się do prostego skalowania. Coraz popularniejszą opcją jest hybrydowa architektura chmurowa, znana również jako multi-cloud. Ta koncepcja zakłada, że różni dostawcy chmury oferują lepsze i bardziej efektywne rozwiązania w różnych obszarach. Dlatego w ramach jednej chmury wybieramy najlepsze usługi od jednego dostawcy, a mniej efektywne obszary zastępujemy lepszymi usługami od innego dostawcy. Na przykład przechowujemy dane u jednej firmy, a przetwarzamy je u innej. Oczywiście, taki model wymaga większych nakładów na administrację i orkiestrację środowiska, ale na rynku dostępne są narzędzia ułatwiające zarządzanie i orkiestrację zasobów chmurowych w modelu multi-cloud.

Alternatywnym rozwiązaniem jest edge computing, które polega na lokalnym przetwarzaniu danych w pobliżu ich źródła i miejsca odbioru. W przeciwieństwie do starszych modeli obliczeniowych, które przesyłały dane do odległych centrów danych lub chmur, w edge computing dane są przetwarzane na urządzeniach znajdujących się na „krawędzi” sieci, takich jak sensory IoT, aparaty przemysłowe, czytniki kodów kreskowych, urządzenia przenośne, smartfony i inne urządzenia końcowe. Ta metoda jest szczególnie przydatna dla aplikacji generujących duże ilości danych, wymagających szybkiej reakcji, takich jak samochody autonomiczne, systemy gier online czy strumieniowanie wideo na żywo. Dzięki edge computing aplikacje te mogą przetwarzać część danych lokalnie, bez konieczności przesyłania ich do centrali lub chmury, co zazwyczaj jest wolniejsze i może prowadzić do opóźnień oraz obciążenia środowiska chmurowego.

Nowa generacja Data Center została zaprojektowana z myślą o zoptymalizowaniu pracy algorytmów AI. Przykładem takiego rozwiązania jest budowane obecnie w USA centrum danych, które rozszerzy infrastrukturę chmury Azure. Dostawca centrum danych opracował innowacyjną wizję, która uwzględnia poprawę łączności i przepustowości w celu szybkiego transportu i przetwarzania dużych ilości danych potrzebnych do pracy AI. Dodatkowo, zapewniona zostanie najkrótsza możliwa ścieżka pomiędzy obliczeniami i pamięcią, co ma kluczowe znaczenie dla niektórych typów obliczeń AI.

Wykorzystanie optymalizacji i automatyzacji algorytmów oraz modeli sztucznej inteligencji w chmurze obliczeniowej jest kluczowe dla efektywnego wykorzystania zasobów. Rozwój analizy danych i sztucznej inteligencji coraz bardziej zależy od tych technologii. Platformy chmurowe oferują szeroki zakres narzędzi i usług wspierających te procesy.

Nowe perspektywy w rozwoju sztucznej inteligencji obejmują automatyzację zadań związanych z AI, optymalizację modeli oraz akcelerację sprzętową. W przyszłości komputer kwantowy może okazać się rewolucyjnym rozwiązaniem, ale obecnie jest to technologia eksperymentalna.

Nasza wiedza i doświadczenie w obszarze technologii, w tym infrastruktury, różnych środowisk cloud oraz usług z zakresu machine learning i sztucznej inteligencji, pozwala nam efektywnie rozwiązywać złożone problemy. Zauważamy rosnące zainteresowanie naszych pracowników tym obszarem i dlatego przygotowaliśmy wysokiej jakości programy szkoleniowe, prezentujące innowacyjne technologie, wnioski z przeprowadzonych projektów i ciekawe przykłady wdrożeń, aby umożliwić im rozwój. Powyższa diagnoza i przedstawione możliwe kierunki optymalizacji wynikają z realizowanych przez nas projekty w EY GDS Technology Consulting.

Artur Sawicki to entuzjasta nowych technologii, które zmieniają biznes. Jego obszarem ekspertyzy są oprogramowanie biznesowe, technologie chmurowe, automatyzacja i zaawansowana analiza danych. Obecnie pełni funkcję European Data & Analytics and Intelligence Automation Leader w EY GDS.


Źródło dystrybucji: pap-mediaroom.pl

Wykorzystujemy pliki cookies.
Polityka Prywatności
Więcej
ROZUMIEM