SK텔레콤, '독자 AI 모델 'A.X K1' 공개[SK텔레콤 제공. 재판매 및 DB 금지][SK텔레콤 제공. 재판매 및 DB 금지]SK텔레콤은 매개변수 519B(5190억 개) 규모의 초거대 인공지능(AI) 모델 ‘에이닷엑스 케이원(A.X K1)’의 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 오늘(7일) 밝혔습니다.
정부의 ‘독자 AI 파운데이션 모델’ 프로젝트에 정예 5개팀에 선발된 SK텔레콤은 국내 첫 500B 이상 초거대 모델 A.X K1을 완성했습니다.
‘A.X K1’은 수학과 코딩 등 초거대 인공지능 모델의 능력을 필요로 하는 분야에서 우수한 성능을 구현했습니다.
이번 보고서에 기술된 벤치마크 지표는 매개변수 6850억 개(685B)의 ‘딥시크-V3.1’, 매개변수 3570개(357B)의 ‘GLM-4.6’ 오픈소스 모델과 비교해 규모 대비 성능을 비교할 수 있도록 했습니다.
수학은 AIME25 벤치마크에서 89.8점을 받아 딥시크-V3.1 모델(88.4점) 대비 102% 수준으로 앞선 성능을 확인했습니다.
AIME25는 미국 고등학생 수학 올림피아드 문제로 AI의 수학 실력을 측정하며, 창의적이고 복잡한 난이도의 문제가 출제됩니다.
코딩 활용도 측면에서 측정한 라이브코드벤치는 영어 기반 75.8점, 한국어 기반 73.1점을 기록하며 실시간 코딩 문제 해결 능력을 입증했습니다.
영어 기반 69.5점, 한국어 기반 66.2점을 받은 딥시크-V3.1 대비 각각 109%, 110% 수준의 높은 성능을 보였습니다.
라이브코드벤치는 AI가 실시간으로 나오는 최신 코딩 문제를 얼마나 잘 푸는지 측정하는 시험으로, 인공지능이 미리 볼 수 없는 최신 문제들로 구성돼 실제 코딩 능력을 테스트합니다.
이와 함께 ‘A.X K1’은 519B 규모의 파라미터 가운데 33B만 선택적으로 활성화하는 방식으로 효율성을 높였습니다.
전문가 혼합(MoE) 구조를 채택해 AI 훈련 과정의 안정성과 효율을 동시에 확보한 것이 특징입니다.
MoE는 여러 개의 작은 전문가 모델들이 모여서 하나의 큰 문제를 해결하는 방식으로 각 전문가 모델은 특정 유형의 데이터를 잘 처리하도록 특화되어 있고, 입력 데이터에 따라 가장 적합한 전문가가 선택되어 문제를 해결합니다.
그 밖에도 A.X K1은 한 번에 128K 토큰의 긴 문맥도 처리할 수 있는 능력을 갖췄습니다.
이는 한국어 기준 약 10만 단어로서, 인공지능 모델이 소설책 한 권 또는 기업 연간 보고서 한 권도 동시에 검토할 수 있게 해 준다고 SK텔레콤 측은 설명했습니다.
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23
문형민(moonbro@yna.co.kr)
당신이 담은 순간이 뉴스입니다!
- jebo23
- 라인 앱에서 'jebo23' 친구 추가
- jebo23@yna.co.kr
ⓒ연합뉴스TV, 무단 전재-재배포, AI 학습 및 활용 금지
-
좋아요
0 -
응원해요
0 -
후속 원해요
0
ADVERTISEMENT
