이종 메모리 시스템을 활용한 비용 효율적인 KV-Cache 방법
- Authors
- 박소희; 권준구; 조정희; 박성식
- Issue Date
- 2024-12-19
- Publisher
- 한국정보과학회
- Citation
- 2024 한국소프트웨어종합학술대회, pp.1136 - 1138
- Abstract
- Large language model (LLM) 기반 생성형 인공지능 모델은 인공지능 영역을 넘어 우리의 일상에 큰 영 향을 미치고 있다. LLM의 높은 활용성에도 불구하고, LLM이 널리 활용되기 위해서는 추론 효율 개선이 절 실히 요구되고 있다. KV-cache는 LLM의 추론 효율을 높이기 위한 기술로써 많은 관심을 받고 있다. 하지만, LLM의 토큰 크기의 증가에 따라 현재 high bandwidth memory (HBM) 등의 동종 (homogenous) 메모리 시스템으로는 비용, 전력 등 여러 측면에서 KV-cache의 사용이 어려워지고 있다. 이를 해결하기 위해 우리 는 이종 메모리를 활용한 시스템에서 KV-cache를 사용하는 방법에 대해 제안한다.
- URI
Go to Link
- Appears in Collections:
- KIST Conference Paper > 2024
- Files in This Item:
There are no files associated with this item.
- Export
- RIS (EndNote)
- XLS (Excel)
- XML
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.