Strona główna Najnowsze wiadomości i artykuły Amazon i Microsoft w wyścigu o wdrożenie sztucznej inteligencji na serwerach lokalnych

Amazon i Microsoft w wyścigu o wdrożenie sztucznej inteligencji na serwerach lokalnych

Amazon i Microsoft w wyścigu o wdrożenie sztucznej inteligencji na serwerach lokalnych

Amazon Web Services (AWS) oferuje teraz „fabryki sztucznej inteligencji” – w pełni zarządzane systemy sztucznej inteligencji działające w centrach danych przedsiębiorstw i instytucji rządowych. Posunięcie to bezpośrednio rzuca wyzwanie dominacji usług sztucznej inteligencji w chmurze publicznej i jest odpowiedzią na rosnące obawy dotyczące bezpieczeństwa i kontroli danych.

Dlaczego to ma znaczenie: suwerenność danych w epoce sztucznej inteligencji

Firmy i rządy coraz bardziej ostrożnie podchodzą do wysyłania wrażliwych danych zewnętrznym dostawcom sztucznej inteligencji. Ryzyko wycieku danych, szpiegostwa przemysłowego, a nawet wrogiego dostępu z zagranicy napędza popyt na rozwiązania, w których dane nigdy nie opuszczają siedziby klienta. AWS, podobnie jak Microsoft, reaguje na to, dostarczając infrastrukturę AI bezpośrednio do klienta.

Jak działają fabryki AI: podejście hybrydowe

Te fabryki sztucznej inteligencji powstają we współpracy z firmą Nvidia i wykorzystują ich wysokowydajne procesory graficzne (w tym najnowszą serię Blackwell) oraz własne chipy AI Trainium3 firmy Amazon. Klienci zapewniają infrastrukturę fizyczną — centrum danych, zasilanie i chłodzenie — podczas gdy AWS zarządza oprogramowaniem, administracją i integracją z innymi usługami w chmurze.

Kluczowe komponenty obejmują:

  • Sieć i pamięć masowa AWS: Bezproblemowo łączy się z istniejącymi ekosystemami AWS.
  • Amazon Bedrock: Zapewnia dostęp do wybranego rynku modeli AI.
  • AWS SageMaker: Umożliwia tworzenie i trenowanie własnych modeli.

Równoległa strategia Microsoftu: Superfactories i Azure Local

Amazon nie jest jedynym, który popycha tę sprawę do przodu. Firma Microsoft wdraża podobną infrastrukturę sztucznej inteligencji we własnych centrach danych („superfabrykach AI”) od końca 2023 r. i planuje globalną ekspansję. Oferują także „Azure Local”, w pełni zarządzane rozwiązanie sprzętowe, które można zainstalować na miejscu.

Tendencja ta jest godna uwagi, ponieważ stanowi zwrot w kierunku branży chmurowej. Przez lata skupiano się na centralizacji mocy obliczeniowej w ogromnych chmurach publicznych. Obecnie sztuczna inteligencja budzi ponowne zainteresowanie wdrożeniami prywatnymi i hybrydowymi.

Ironia: giganci chmurowi odbudowują chmury prywatne

Ironia jest wyraźna: ci sami dostawcy usług w chmurze, którzy zrewolucjonizowali tradycyjne centra danych, obecnie aktywnie inwestują w przywrócenie do nich przetwarzania AI. Ta zmiana przypomina początki przetwarzania w chmurze, kiedy firmy ostrożnie testowały grunt w przypadku chmur prywatnych, zanim w pełni zaangażowały się w usługi publiczne.

Zapotrzebowanie na lokalne rozwiązania AI dowodzi, że kontrola danych jest priorytetem, nawet kosztem wygody i oszczędności. Tendencja ta wskazuje, że w nadchodzących latach wdrożenia sztucznej inteligencji hybrydowej i autorskiej będą coraz powszechniejsze.

Exit mobile version