[경제] [팩플] ‘싸고 가볍게’ 오픈AI도 AI 소형화 대열 합류

본문

인공지능(AI) 시장에도 ‘가성비’ 바람이 불고 있다. 지난 1~2년간 크기를 키워 거대언어모델(LLM) 성능을 개선하는데 골몰했던 오픈AI를 비롯한 빅테크들이 최근엔 경량화된 AI모델로 눈을 돌리고 있다.

무슨 일이야

18일(현지시간) 오픈AI는 지난 5월 출시한 GPT-4o(포오)보다 가벼운 소형 모델인 ‘GPT-4o 미니’를 출시할 예정이라고 발표했다. 가장 큰 장점은 저렴한 비용이다. GPT-4o 미니의 이용 비용은 입력 토큰(AI가 텍스트를 한 번에 처리할 수 있는 기본 단위) 100만 개당 15센트, 출력 토큰 100만 개당 60센트로, 이전에 출시된 ’GPT-3.5 터보’보다 60% 이상 저렴하다. 그러면서도 추론 작업, 수학과 코딩 능력을 측정하는 테스트(MMLU)에서 구글의 ‘제미나이 플래시’, 앤스로픽의 ‘클로드 하이쿠’ 등 경쟁사 모델보다 정답률이 높았다는 게 오픈AI의 설명이다. 오픈AI는 “GPT-4o 미니는 우리의 가장 비용 효율적인 소형 모델”이라고 밝혔다.

17213700578706.jpg

샘 올트먼 오픈AI 최고경영자(CEO). 로이터=연합뉴스

이게 왜 중요해

오픈AI뿐만 아니라 다른 빅테크들도 앞다퉈 소형언어모델(SLM)을 내놓고 있다. 메타는 지난 4월 ‘라마 3’를 매개변수 700억 개 이상인 대형 모델과 80억 개인 소형 모델 두 가지 버전으로 선보였다. 마이크로소프트(MS)는 소형 생성AI ‘파이-3 미니’를 공개했다. 5월에는 구글도 ‘제미나이 1.5 프로’를 발표하면서 경량화 모델인 ‘제미나이 1.5 플래시’를 함께 발표했다.

1721370058039.jpg

순다르 피차이 구글 최고경영자(CEO)가 지난 5월 '구글 연례 개발자 회의(I/O)'에서 발표를 하고 있다. 이 행사에서 구글은 제미나이 1.5 시리즈를 선보였다. 연합뉴스

소형 AI모델이 각광받는 건 대형 AI모델 운영에 과도하게 많은 비용이 들어가기 때문이다. 최근 월스트리트저널(WSJ)은 클라라 쉬 세일즈포스의 AI 담당 최고경영자(CEO)의 말을 인용해  “(거대 AI모델을 사용하면) 결국 과다한 비용을 치르게 되고 시간도 지연된다. 오히려 과잉”이라고 보도했다. WSJ은 “문서를 요약하거나 이미지를 생성하는 것처럼 많은 일에서 거대 모델은 장을 보기 위해 탱크를 모는 것과 같다”고 평가했다. 불필요한 비용을 지불하면서까지 거대 AI모델을 사용할 필요가 없다는 의미다. 또 경량화 AI모델은 온디바이스(네트워크 연결없이 기기 내에서 AI 구동) 기술에도 적합하다. 온디바이스 스마트폰·PC 등 기기가 늘어나면서 소형 AI모델의 필요성은 더욱 높아지고 있다.

더 알면 좋은 것

AI모델 경쟁이 심화되면서 빅테크들의 자체 AI 반도체 개발에도 속도가 붙고 있다. 정보통신(IT) 전문 매체 디인포메이션은 지난 18일(현지시간) 오픈AI가 자체 AI반도체 개발을 위해 미국 팹리스(반도체 설계 전문) 기업 브로드컴과 논의 중이라고 보도했다. 이를 위해 구글의 반도체 개발 부서에서 엔지니어들을 영입했다고도 전했다. 브로드컴이 중국 틱톡 운영사 바이트댄스와 고성능 AI 반도체 개발을 위해 협력한다는 계획도 지난달 공개됐다.

관련기사

  • [팩플] 직원들 입 막고, 사고는 쉬쉬... 브레이크 사라진 오픈AI, 이대로 괜찮나

  • 오픈AI, 우회로도 틀어막는다…고립된 중국 'AI 굴기' 속도 [팩플]

0
로그인 후 추천을 하실 수 있습니다.
SNS
댓글목록 0
등록된 댓글이 없습니다.
전체 28,389 건 - 1 페이지