Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure

Natan Faleńczyk | 30-08-2024 21:00 |

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie AzureZapotrzebowanie na układy scalone do obsługi sztucznej inteligencji (a dokładniej dużych modeli językowych - LLM) wciąż wzrasta, więc kolejne przedsiębiorstwa zastanawiają się, jak mu sprostać. Firma Microsoft zaprezentowała właśnie autorski akcelerator nazwany Maia 100, którego zadaniem jest właśnie wydajna obsługa omawianych rozwiązań na platformie Azure. Nie wiadomo jednak, czy gigant z Redmond zatrzyma nowość dla siebie, czy udostępni innym możliwość jej zakupu.

Microsoft na wydarzeniu Hot Chips 2024 zaprezentował swój pierwszy układ, który będzie zasilał platformę Azure. Maia 100 będzie  głównie zajmować się wydajną obsługą usług, które związane są ze sztuczną inteligencją.

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure [1]

NVIDIA B20 - trwają prace nad akceleratorem AI z rodziny Blackwell, który będzie mógł bez przeszkód zadebiutować w Chinach

Akcelerator Maia 100 został wykonany przy użyciu 5-nanometrowego procesu technologicznego firmy TSMC wraz z wykorzystaniem technologii pakowania CoWoS-S. Jego powierzchnia, na której znalazło się miejsce na 64 GB pamięci w standardzie HBM2E o przepustowości 1,8 TB/s, wynosi 820 mm². Cały chip zawiera w sobie 105 mld tranzystorów. Nowość od Microsoftu może pracować przy TDP wynoszącym 500 W, natomiast podczas większego zapotrzebowania wartość ta jest w stanie wzrosnąć nawet do 700 W. Maia 100 składa się z 16 klastrów, z których każdy zawiera 4 kafelki. Klastry komunikują się między sobą dzięki technologii NoC (Network on Chip).

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure [2]

NVIDIA R100 Rubin - pierwsze informacje na temat kolejnej generacji akceleratorów pod obliczenia AI

Pamięć podręczna pierwszego i drugiego poziomu wynosi około 500 MB, co jest naprawdę dobrą wartością. Układy można połączyć ze sobą do wspólnej pracy - każdy z nich korzysta z architektury sieciowej Ethernet (12 kanałów x 400 GbE), co pomaga w efektywnej wymianie danych. Warto zaznaczyć, że chipy mogą skorzystać ze specjalnego systemu chłodzenia cieczą. Taka konfiguracja ma pozwolić nie tylko na wydajną obsługę wspomnianych dużych modeli językowych, ale również na ich szkolenie. Dostępny jest także pakiet Maia Software Development Kit, który ma za zadanie pomóc w zaadaptowaniu modeli opartych na PyTorch lub Triton do usługi Azure OpenAI. Rozwój sztucznej inteligencji stale więc tylko przyspiesza, choć w tym konkretnym wypadku nie wiadomo (jak wspomniano we wstępie), czy Microsoft zamierza jakkolwiek udostępnić chip Maia 100 dla innych firm.

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure [3]

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure [4]

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure [5]

Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure [6]

Źródło: Microsoft
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 9

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.