폴라퀀트·QJL 기술 바탕
상용화 시점 미지수
여전히 ‘메모리 품귀’ 지속
제2의 딥시크 관측도
![]() |
| 미국의 빅테크 기업 구글 로고. [AP] |
[헤럴드경제=박지영·김지윤 기자] 구글이 개발한 ‘터보퀀트(TurboQuant)’ 기술이 발표되면서 국내외 반도체 기업들에 위협이 될 수 있다는 우려가 나오고 있지만, 실제로는 AI(인공지능) 반도체 시장의 파이를 더 키워 결과적으로는 선순환이 예상된다는 관측이 나온다.
과거 중국의 AI 모델인 딥시크가 처음 공개됐을 때 한 때 고대역폭메모리(HBM) 시장이 위축될 것이라는 전망이 나온 것과 반대로 폭발적으로 성장하고 있는 추세와 같은 맥락이다. 기술의 효율성이 높아지면 자원의 비용이 하락하게 돼 전체 사용량이 폭발적으로 늘어나는 이른바 ‘제번스의 역설’이 또 한번 적용될 것이란 분석이다.
이런 가운데 여전히 메모리 품귀 현상이 지속되면서 하이퍼스케일러는 메모리 반도체 기업과 장기계약 공급(LTA)을 통해 전방위 메모리 조달에 나서고 있는 상황이다. AI 시장 확대가 빨라져 수요가 더 폭발될 수 있다는 관측이 나오는 이유다.
![]() |
▶방대한 메모리 없이도 추론 AI 병목 해결=AI 모델이 학습형에서 추론형으로 진화하면서 챗봇을 비롯한 AI 모델은 추론하고 답변을 생성하는 데 사용자와의 이전 대화와 검색 결과 등 주요 맥락 정보가 필요하다. 대화가 오래 계속되면 메모리에 저장되는 맥락 데이터도 늘어나게 되고, 메모리 사용량도 그만큼 늘어나게 마련이다. 이렇게 되면 속도가 느려지는 병목현상이 발생하는데, 이를 해소하기 위해서는 막대한 양의 메모리가 필요한데 비용과 시스템의 문제가 있어 한계가 있다.
이같은 고민의 지점에서 개발된 게 터보퀀트다. 터보퀀트는 정확도 저하 없이 모델의 크기를 극단적으로 축소하는 압축 기법을 이용해 AI의 메모리 사용량을 6분의 1로 줄였다. 데이터의 크기를 줄이는 ‘극좌표양자화’(폴라퀀트)와 오차를 줄이는 ‘QJL’(양자화 존슨-린덴스트라우스 변환) 기술이 바탕이 됐다. 폴라퀀트 기술은 AI가 다루는 데이터의 구조를 직교좌표계에서 극좌표계로 바꾸는 방식으로 크기를 줄인다. 예를 들면 동쪽으로 3칸, 북쪽으로 4칸 가라는 식의 지시를, 37도 각도로 5칸 가라는 식으로 바꾸는 식이다.
동서남북 네 방향밖에 없는 2차원 공간에서는 이와 같은 변화가 데이터 크기를 그다지 줄이지 못하지만, 실제로 AI가 사용하는 데이터는 수백∼수천차원 벡터 구조로 돼 있기 때문에 효과가 크다. 이를 통해 기존 방식에서 발생하던 메모리 낭비를 줄일 수 있다는 설명이다. 이와 같은 압축 과정에서 발생할 수 있는 미세한 오차는 QJL 기술을 이용해 바로잡는다. 단 1비트만을 소모하는 이 기술은 메모리를 거의 사용하지 않고도 일종의 ‘수학적 오류 검사기’ 역할을 하게 된다.
터보퀀트 발표로 메모리 사용량이 감소할 수 있다는 우려가 나오면서 국내외 반도체 기업들의 주가를 흔들었다. 기존의 반도체 피크아웃(정점통과)론에 터보퀀트가 가중되며 낙폭을 키운 것이다. 특히 메모리 반도체가 AI 발전 속도를 막고 있는 병목 현상을 풀 열쇠라고 여겨져 왔는데, 소프트웨어가 병목을 풀 수 있다는 가능성이 열리면서 메모리 기업에 충격을 더했다.
사이버보안기업 클라우드플레어의 최고경영자(CEO) 매슈 프린스는 터보퀀트에 대해 “구글의 딥시크”라고 평가했다. 딥시크가 고가의 GPU(그래픽처리장치) 없이도 효율적 알고리즘으로 고성능 AI 모델을 구현한 것처럼, 메모리가 아닌 소프트웨어가 병목을 풀었다는 비유다.
![]() |
| 터보퀀트 설명 이미지 [turboquant.net 자료] |
▶“상용화 시점 미지수…메모리 영향 제한적”=하지만 업계에서는 터보퀀트의 상용화 시점이 미지수이고, 여전히 메모리 가격이 상향 흐름을 보이고 있는 만큼 영향이 제한적일 것으로 보고 있다. 또 장기적으로는 메모리 사용량이 줄어들면 AI 운영 비용이 낮아지고 AI 도입 확대를 자극, 오히려 메모리 수요를 끌어올릴 수 있다는 분석도 나온다.
유회준 카이스트 AI반도체대학원 교수는 “아직 범용성도 없을 뿐 더러 검증 전인 논문에 그쳐 실제 메모리 매출에 미칠 영향은 미미해 보인다”며 “KV캐시(key value cache)를 줄이기 위한 연구는 계속돼 왔었다. KV캐시를 줄인다고 HBM(고대역폭메모리) 사용량이 줄지는 않을 것”이라고 봤다.
김록호 하나증권 연구원도 “구글의 시뮬레이션 결과가 실제 환경에서 어떻게 작용할지 불확실하고, 해당 기술의 검증 및 확장 속도도 불명확하다”며 “시장조사업체 트렌드포스는 1분기에 이어 2분기, 3분기 메모리 가격 전망치를 상향 조정했으며, 연중 공급부족이 지속될 것을 고려하면 D램의 가격 상승폭 상향 가능성은 상존한다”고 말했다.
숀 김 모건스탠리 분석가는 “모델이 성능 저하 없이 메모리 요구량을 낮춰 실행할 수 있다면 비용이 크게 감소해 AI 도입의 수익성이 높아질 것”이라며 “비용이 낮아지면 제품 채택 수요도 증가해 장기적으로 메모리 제조사에도 이익이 될 것”이라고 말했다.
이창민 KB증권 연구원은 “터보퀀트 등 다양한 저비용 AI 기술은 AI 사용장벽을 낮추고 전체 수요를 폭발적으로 확대시키는 방향으로 작용한다”며 “연산량 증가와 메모리 탑재량 확대로 AI 생태계가 확장되면 최대 수혜는 메모리 반도체 업체가 될 전망”이라고 분석했다.






