[경제] 터보퀀트 바로 쓸 수 있나…개발 참여 KAIST 교수 “예스”
-
0회 연결
본문
“현재 인공지능(AI) 모델에 즉시 적용 가능하다.”
구글의 ‘터보퀀트’(TurboQuant) 기술 개발에 참여한 한인수(34) 한국과학기술원(KAIST) 전기및전자공학부 교수는 30일 온라인 기자간담회에서 기술 상용화 가능성에 대해 이같이 설명했다. 터보퀀트는 구글 리서치가 지난 24일 “AI 모델 구동에 필요한 메모리 사용량을 기존 대비 최대 6분의 1 수준으로 줄일 수 있다”며 공식 블로그에 공개한 기술이다. 공개 직후, 이 기술이 상용화될 경우 메모리 반도체 수요가 급감할 수 있다는 우려가 확산하며 전 세계 주요 반도체 기업의 주가가 일제히 급락했다. 반도체 업계 안팎에서 터보퀀트의 상용화 가능성을 두고 갑론을박이 이어진 가운데, 연구에 참여한 한 교수가 견해를 밝힌 것이다. 그는 “터보퀀트는 별도 추가 학습이나 미세조정(튜닝) 없이, 이미 학습된 거대언어모델(LLM)에 곧바로 적용할 수 있다”며 “실제 AI 모델에 탑재되면 그 성능이 명확히 검증될 것”이라고 설명했다.
1992년 생인 한 교수는 2010년 KAIST 학사 과정에 입학한 후 동 대학원에서 석·박사를 마쳤다. 2024년 KAIST 조교수로 임용된 뒤 지난해 7월부터 구글 리서치 방문 연구원으로 활동해왔다.
그는 이 과정에서 터보퀀트 개발 알고리즘에 적용된 핵심 기법인 폴라퀀트 등의 개발을 주도했다. 한 교수는 터보퀀트에 대해 “AI 모델의 고질적 한계로 꼽혀온 메모리 병목 현상을 해결한 데이터 압축 기술”이라고 설명했다. AI 모델은 맥락에 맞는 답변을 하기 위해 앞서 이용자와 나눈 대화 내용을 기억해야 하는데, 대화가 길어질 수록 메모리 부담이 커진다. 터보퀀트는 마치 옷의 부피를 줄이기 위해 쓰는 ‘압축팩’처럼 이 데이터를 압축했다 필요할 때 원상복구시켜 메모리 부담을 줄이는 기술이다. 한 교수는 “소수점으로 길게 늘어진 데이터를 반올림해 근사치인 정수로 만들면 핵심 정보는 유지하면서 저장 용량과 연산 부담을 줄일 수 있다”고 설명했다.
한 교수는 또 “시스템 구현에 따라 메모리 효율성을 개선할 뿐 아니라 AI 모델의 연산 속도까지 높일 수 있다”며 “검색과 추천, 검색증강생성(RAG) 시스템 등에서도 범용적으로 활용할 수 있다”고 말했다. 구글 역시 이번 기술을 공개하면서 자사 AI 모델인 제미나이와 검색에 적용할 수 있다고 설명했다.
한 교수는 이번 발표가 메모리 반도체 시장에 미칠 영향을 전혀 예상하지 못했다고 했다. 그는 “연구에 착수할 때부터 AI에 생기는 메모리 병목을 줄일 수 있는 압축 기술과 이를 온전히 복구할 수 있는 성능 유지라는 목표에만 집중했다”고 말했다. 이번 기술이 삼성전자와 SK하이닉스 등이 만드는 메모리 반도체 수요에 미칠 영향에 대해 묻자 “하드웨어나 주식 시장에 대한 전문가가 아니기 때문에 시장에 미칠 영향에 대해서는 답변하기 어렵다”고 말했다.



댓글목록 0