광고닫기

구글 신기술 '터보퀀트' 뭐길래…삼전·하닉 주가 털썩

중앙일보

2026.03.26 02:40 2026.03.26 13:19

  • 글자크기
  • 인쇄
  • 공유
글자 크기 조절
기사 공유
구글이 새로운 인공지능(AI) 기술 ‘터보퀀트(TurboQuant)’를 꺼내 들자 세계 메모리 반도체 시장이 긴장하고 있다. 메모리 사용량을 6분의 1로 줄이는 기술이다. 관련 소식이 전해지자 메모리 반도체를 생산하는 삼성전자와 SK하이닉스, 미국 마이크론 등의 주가는 급락했다.

26일 업계에 따르면 구글은 지난 24일(현지시간) 구글리서치 블로그에 터보퀀트 논문을 공개했다. 터보퀀트는 거대언어모델(LLM)의 추론 과정에서 발생하는 메모리 병목 현상을 해결해 AI의 효율성을 극대화하는 기술이다.
Google's logo during the CERAWeek energy conference 2026 in Houston, Texas, U.S., March 24, 2026. REUTERS/Danielle Villasana  〈저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지〉

쉽게 말해 AI가 사용하는 메모리를 줄이면서도 성능을 유지하는 게 핵심이다. AI 모델은 단어의 의미, 이미지의 특징과 같은 고차원 정보를 처리할 때 막대한 양의 메모리를 소비한다. 이때 AI가 사용자와의 대화를 기억하는 저장장치인 ‘KV캐시’에 병목 현상이 발생한다. 터보퀀트는 벡터 양자화 기술로 데이터를 압축해 정확도 손실 없이 KV캐시의 메모리 사용량을 줄인다.

연구진은 터보퀀트를 구글 젬마와 미스트랄 등에 적용한 결과 데이터 손실 없이 KV캐시 용량을 최소 6분의 1로 줄였다고 밝혔다. 처리 속도는 엔비디아의 H100 그래픽처리장치(GPU)보다 최대 8배 빠르다고 덧붙였다. 향후 자사 AI 모델 제미나이와 검색에 터보퀀트를 적용할 수 있다고 설명했다.

터보퀀트가 상용화되면 메모리 반도체 수요가 둔화할 수 있다는 전망이 나온다. 지금보다 훨씬 적은 양의 메모리로도 복잡한 AI 연산이 가능해질 거란 이유에서다. IT전문매체 테크크런치는 "터보퀀트는 AI 모델이 기존보다 효율성을 높이고 메모리 수요를 줄이는 구조를 만들어 낼 수 있다"고 평가했다. 사이버보안기업 클라우드플레어의 매튜 프린스 최고경영자(CEO)는 "구글의 딥시크 모멘트"라고 표현했다. 중국 딥시크가 저비용으로도 고성능 AI 모델을 개발할 수 있음을 입증한 것처럼 터보퀀트가 메모리 문제를 해결할 거라는 의미의 비유다.

메모리 사용량이 감소할 것이라는 우려에 미국 마이크론 테크놀로지와 샌디스크의 주가는 전날 각각 3.4%ㆍ3.5% 하락했다. 한국의 삼성전자는 4.71% 하락한 18만100원에, SK하이닉스는 6.23% 하락한 93만3000원에 장을 마감했다. 반면 인텔ㆍAMD 등 중앙처리장치(CPU) 제조사들의 주가는 급등세를 보였다.

다만 이 같은 하락세가 과도하다는 평가가 많다. 전문가들은 현재 터보 퀀트 기술은 논문 수준이고, 실제 상용화까지 시간이 걸린다고 지적한다. 앤드루 잭슨 오터스어드바이저스 애널리스트는 “극심한 메모리 칩 공급 제약을 고려할 때 터보퀀트는 수요에 큰 영향을 미치지 못할 것”이라고 밝혔다.
(서울=뉴스1) 구윤성 기자 = 26일 오후 서울 중구 하나은행 딜링룸 전광판에 코스피 지수가 표시되고 있다. 이날 코스피는 전 거래일 대비 181.75포인트(3.22%) 내린 5460.46으로 장을 마쳤고, 코스닥도 22.91포인트(1.98%) 내린 1136.64로 장을 마감했다. 원달러환율은 1500원을 돌파했다. 2026.3.26/뉴스1
장기적으로는 메모리 병목 현상이 해결되면 오히려 AI 수요를 확대할 거라는 기대도 있다. 김일혁 KB증권 연구원은 “적은 메모리로도 더 많은 정보를 처리할 수 있게 되면 AI 모델의 사용 범위가 확장된다”며 “기업들이 AI 에이전트나 새로운 기술에 투자하면서 메모리 반도체 수요는 다시 늘어날 수밖에 없다”고 분석했다. JP모건 트레이딩 데스크는 보고서에서 “(메모리) 효율 개선이 더 많은 데이터 처리로 이어질 수 있다”고 평가했다.

구글은 오늘 4월 23일부터 브라질 리우데자네이루에서 열리는 AI 국제학술대회 ‘ICLR 2026’에서 터보퀀트에 대해 발표할 예정이다. 이번 연구에는 한인수 카이스트(KAIST) 전기ㆍ전자공학부 교수도 참여했다.
더중앙플러스 : 팩플
더 자세한 기사내용이 궁금하시다면 주소창에 링크를 붙여넣으세요.

GPU 잡는 NPU 한국에 있다…AI반도체 2세대 승부사들 ①
지난해 10월 삼성전자와 SK하이닉스가 오픈AI의 700조원 규모 AI 인프라 프로젝트(스타게이트)에 참여한다고 선언한 날. 한국 반도체 생태계는 이날을 기점으로 글로벌 AI 생태계 핵심 멤버로 승격됐고, 해외 투자자들이 한국 반도체 산업을 바라보는 시각은 완전히 달라졌다. 삼성전자, SK하이닉스 뒤를 이을 AI 팹리스 신흥 강자들의 경쟁력 분석부터, 글로벌 판도까지 싹 다 짚었다.
https://www.joongang.co.kr/article/25412093

젠슨황 “AI 추론칩 왕 되겠다”…그 LPU, 원조는 한국이었다
‘추론의 왕’ (InferenceMAX KING). 젠슨 황 엔비디아 최고경영자(CEO)는 지난 16일(현지시간) 엔비디아 연례 개발자 회의 ‘GTC 2026’에서 이런 문구가 적힌 챔피언 벨트를 공개했다. AI 칩 최강자 엔비디아가 가진 유일한 약점, 추론 칩 분야에서도 세계 최고가 되겠다는 선언이었다. 엔비디아의 비밀 병기는 다름 아닌 언어처리장치(LPU). 그래픽처리장치(GPU)와 신경망처리장치(NPU)가 익숙해질 만하니 또 새로운 게 등장했다. LPU가 도대체 뭐길래 황 CEO가 나서서 ‘셀프 추론 대관식’ 주인공으로 내세운 걸까.
https://www.joongang.co.kr/article/25414017

바이브 코딩으로 엑셀 지옥 끝…‘카카오벤처스’ 문과남 AI 고수 된 비결
소프트웨어 엔지니어링 지식은커녕 코드 한 줄 쓸 줄 몰랐던 조현익 카카오벤처스 심사역은 최근 바이브 코딩(평소 쓰는 말로 코딩)으로 투자 기업 정보들을 한 화면에 볼 수 있는 웹 대시보드를 만들었다. 대시보드 개발팀에 인간은 조 심사역 한 명. 대신 챗GPT·제미나이·클로드 등 내로라하는 ‘일잘러’ AI 에이전트들을 팀원으로 부렸다. 코딩 하면 겁부터 나는 문과 출신 직장인은 이번 리포트에 주목. 바이브 코딩 진입 장벽을 최대한 낮추고, 업무 효율을 위한 프로그램을 뚝딱 만들어낼 문과생을 위한 코딩 비법이 여기 있다.
https://www.joongang.co.kr/article/25411271

AI 마스터 클래스 PDF북
챗GPT, 제미나이, 클로드, 그록…. 인공지능(AI) 모델들이 하루가 멀다 하고 쏟아지는데, 정작 매일 출근하는 직장인들의 생활은 뭐가 달라졌을까. 주변에 생성 AI 써서 덕봤다는 사람들은 줄줄이 나오는데. 막상 쓰려고 하면 어디서부터 시작해야할지 막막하다. ‘AI 마스터 클래스’ PDF북은 챗GPT, 제미나이부터 클로드, 그록까지 지금 가장 뜨겁게 관심을 모으고 있는 대표 생성 AI 서비스의 실전 활용 법을 다뤘다. AI뿐만 아니라, 노션·슬랙·옵시디언처럼 요즘 많이 쓰지만 막상 편리한 기능을 낱낱이 알기는 어려웠던 생산성 도구 활용법도 함께 소개한다.
이 정도는 너무 쉽다고? MCP 연결하기, X에서 여론 파악하기 같은 상위 1%만을 위한 심화 과정도 담았다. 챗GPT 한 번도 안 써본 사람부터 아직도 인터넷 검색을 수십 번 해가면서 보고서를 쓰고 있는 사람, 인포그래픽을 PPT 수작업으로 한땀 한땀 만들고 있는 사람, 하나하나 버튼을 눌러 메일을 보내고 있는 사람까지. 직장 업무부터 연구조사, 학업에 각 분야에 똑똑해진 생성 AI, 어떻게 쓰면 좋을지 싹 다 정리했다.
https://www.joongang.co.kr/pdf/1019



장윤서([email protected])

많이 본 뉴스

      실시간 뉴스