[경제] MS, 추론 전용 AI 칩 ‘마이아 200’ 공개…칩과 소프트웨어 동시 승부 [팩플]

본문

bt9a1a9f884e6385edb07da106a1ebbdb3.jpg

마이크로소프트가 추론 작업의 효율성을 높인 AI 칩 '마이아200'을 출시했다고 26일(현지시간) 밝혔다. 사진은 마이크로소프트 자체 AI칩 '마이아 200'. 사진 마이크로소프트

공고했던 엔비디아의 인공지능(AI) 반도체 시장 지배력에 균열이 가고 있다. 마이크로소프트(MS), 구글, 아마존 등 대규모 클라우드 서비스를 보유한 빅테크(하이퍼스케일러)들이 강력한 성능을 갖춘 자체 AI 칩을 공개하면서다. 국내 반도체 업계에도 새로운 기회가 열릴 수 있다는 분석이 나온다.

MS는 26일(현지시간) 2세대 자체 AI 칩 ‘마이아(Maia) 200’을 공개했다. 2023년 마이아 100을 공개한 지 약 3년 만이다. 마이아 200은 AI 모델 훈련용이 아닌, 실제 서비스에서 사용자 질문에 답을 생성하는 추론(inference) 작업에 최적화한 칩이다. MS가 기업 고객에 제공하는 AI 서비스와 클라우드 기반 AI 모델, 오픈AI의 최신 AI 모델을 구동하는 데 활용될 예정이다. 일부 초기 물량은 MS 내부에서 차세대 AI 모델을 개발하는 조직에 먼저 투입된다. MS는 블로그를 통해 “마이아 200을 미국 아이오와 데이터센터에 우선 배치했고, 이후 애리조나 지역으로 확산 배치할 계획”이라고 밝혔다.

MS가 공개한 자료에 따르면 마이아 200은 AI가 실제로 답변을 만들어내는 데 쓰이는 일부 연산에서 아마존웹서비스(AWS)의 ‘트레이니엄3’, 구글의 ‘TPU v7’과 비슷하거나 앞선 성능을 낸 것으로 나타났다. 스콧 커스리 MS 클라우드·AI 부문 총괄 부사장은 “마이아 200은 MS가 지금까지 배치한 추론 시스템 가운데 가장 효율적”이라고 말했다.

bt213a73ebdf751fe1c4ac37e6ad64408f.jpg

MS 본사 캠퍼스 전경. 권유진 기자

하이퍼스케일러의 칩 자립 

최근 글로벌 빅테크들은 엔비디아 그래픽처리장치(GPU)에만 AI연산을 의존하던 방식에서 벗어나 자체 설계한 전용 반도체(ASIC)를 병행하는 전략으로 선회하고 있다. 그간 표준처럼 쓰이던 GPU만으로는 늘어나는 AI 서비스 수요를 감당하기 어렵다는 판단에서다. ASIC은 특정 목적에 맞춰 설계된 칩으로 범용 칩보다 전력 소모와 비용을 줄이면서 실제 서비스에 필요한 성능을 효율적으로 낼 수 있다.

구글은 이미 수년 전부터 TPU를 자체 데이터센터에 적용해 제미나이 등 AI 모델의 학습과 추론에 활용했다. AWS는 지난해 12월 자체 개발한 AI 칩 ‘트레이니움3’을 공개했다. 블룸버그는 “AI 데이터센터의 에너지 수요가 빠르게 늘고 있고, 신규 에너지원 확보가 쉽지 않은 상황에서 효율성에 초점을 맞춘 AI 칩의 중요성은 더욱 커질 것”이라고 보도했다.

글로벌 AI 업계에서 MS의 이번 발표에 주목하는 이유는 MS가 마이아 200과 함께 이를 활용해 프로그래밍하고 최적화할 수 있는 AI 개발 도구(SDK)를 동시에 공개해서다. 그간 엔비디아는 GPU 하드웨어 성능뿐 아니라, 이를 활용하는 소프트웨어 쿠다(CUDA)를 통해 영향력을 유지해왔다. 쿠다가 AI 모델을 개발하고 최적화하는 데 사실상 표준처럼 사용돼 개발자와 기업들을 엔비디아 생태계에 묶어두는 핵심 축으로 작용해 왔다. 이 때문에 GPU 성능을 대체할 수 있는 칩이 등장하더라도 소프트웨어 장벽을 넘기 어렵다는 평가가 많았다. MS의 개발 도구 동시 공개는 쿠다 환경에 익숙한 개발자들을 새로운 하드웨어로 끌어오기 위한 승부수라는 평가다. 업계 관계자는 “구글이 TPU를 통해 AI 연산이 반드시 엔비디아 GPU에 의존하지 않아도 된다는 선례를 만들었다면, MS는 소프트웨어 측면에서도 엔비디아를 우회할 수 있다는 가능성을 제시한 것”이라고 설명했다.

국내 반도체 업계엔 기회

이같은 흐름은 국내 반도체 업계에도 기회가 될 수 있다. 구글·MS·AWS 등 빅테크들이 각자 다른 방식의 전용 AI 칩을 확대하면 HBM 등 핵심 메모리를 공급할 수 기회가 늘어날 수 있어서다. 업계에 따르면 SK하이닉스는 마이아 200 AI 가속기에 단독 공급사로 최신 제품인 HBM3E(5세대)를 공급하는 것으로 알려졌다. 총 216GB(기가바이트) HBM3E가 사용되는데 SK하이닉스의 12단 HBM3E가 6개 탑재된다. 김용석 가천대 반도체대학 석좌교수는 “빅테크들의 자체 칩개발 경쟁은 HBM시장을 장악하고 있는 SK하이닉스, 삼성전자엔 호재가 될것”이라며 “AI 반도체가 다양해질수록 칩 종류와 상관없이 필수로 들어가는 HBM 수요는 함께 늘어날 수밖에 없다는 점에서 국내 메모리 기업들은 구조적으로 유리한 측면이 있다”고 말했다.

더중앙플러스 : 팩플

더 자세한 기사 내용이 궁금하시다면, 주소창에 링크를 붙여넣으세요.

“챗GPT처럼 인간에 아부 말라” 불친절 ‘제미나이’ 대세인 이유
챗GPT 천하였던 생성 AI 시장에 제미나이를 앞세운 구글이 무서운 기세로 치고 올라오고 있다. 샘 올트먼 오픈AI 최고경영자(CEO)는 지난해 말 비상 단계인 코드 레드를 발령했을 정도. 그런데 불과 2년여 전만 해도 상황은 정반대였다. 2023년 초 급하게 바드(Bard, 제미나이 전신)를 공개했지만 시연에서 할루시네이션(AI의 그럴싸한 거짓말)을 적나라하게 노출하며 체면을 구겼다. 주가는 당일 하루 만에 7% 넘게 하락했다. 그랬던 구글은 어떻게 반전 드라마를 쓸 수 있었을까. 모바일 시대를 넘어 AI를 ‘기본값’으로 만드는 싸움에서 구글은 최종 승자가 될 수 있을까. 시총 4조 달러 고지로 구글을 밀어 올린 AI 전략의 오늘과 내일이 궁금하다면.
https://www.joongang.co.kr/article/25400289

‘탈 엔비디아’ GPU 독립전쟁…아마존·구글, AI칩 만드는 이유
엔비디아의 GPU(그래픽처리장치)에 의존하던 하이퍼스케일러들이 AI 칩까지 ‘잘’ 만들기 시작하면서 엔비디아 1극 천하의 위상이 흔들리고 있다. 업계에선 엔비디아가 CPU(중앙처리장치)에서 대형 고객을 잃은 인텔처럼 될지 모른다는 전망까지 솔솔 나오고 있다.
그런데, 만들기 어렵다는 AI 칩, 하이퍼스케일러들은 어떻게 만들 수 있었을까. 하이퍼스케일러의 진짜 목표는 엔비디아의 자리를 대체하는 걸까. 지금까지 잘 써왔던 칩은 왜 직접 만들려 하나. 지금 벌어진 상황의 이면과 기업들의 속내, 요동치는 글로벌 AI 칩 생태계에서 벌어지는 변화에 대해, 심층 분석했다.
https://www.joongang.co.kr/article/25388320

0
로그인 후 추천을 하실 수 있습니다.
SNS
댓글목록 0
등록된 댓글이 없습니다.
전체 48,639 건 - 1 페이지