중국 인공지능(AI) 스타트업 딥시크가 전 세계 투자자들에게 큰 충격을 준 데에는 저렴하게 개발된 딥시크의 AI모델 성능이 오픈AI의 챗GPT 등의 모델을 일부 앞선 것으로 나타나고 있기 때문이다. 연합뉴스에 따르면 딥시크가 최근 선보인 AI 모델은 두 가지로, 딥시크는 지난해 12월 대규모 언어모델(LLM) V3를 공개했고 지난 20일에는 R1이라는 추론 모델을 선보였다. 딥시크는 기술보고서에 V3의 성능을 오픈AI의 가장 강력한 모델인 GPT-4o, 페이스북 모회사 메타플랫폼(이하 메타)의 AI 모델인 라마 3.1, 앤스로픽의 AI 모델 클로드 3.5 소네트를 비교했다. V3는 22개 평가 테스트 가운데 13개 부문에서 다른 경쟁 모델보다 가장 뛰어났다고 딥시크는 설명했다. 선별된 500개의 수학 문제 테스트(MATH-500)에서 V3는 90.2%의 정확도를 보여 80%에 그친 다른 모델을 압도했다. 다중 언어 코드 생성 평가(HumanEval-Mul)에서는 82.6%로 80.5%와 77.2%에 각각 그친 GPT-4o와 라마 3.1을 앞섰다. 다양한 언어 이해 작업을 수행할 수 있는 대규모 멀티태스크 언어 이해 능력 평가(MMLU)에서는 89.1%로, 두 번째로 높았던 클로드 3.5 소네트(88.9%)를 넘어섰다. 수치 추론과 정보 추출 능력 테스트(DROP)에서는 91.6%, 중국어 기반 테스트(C-Eval)에서도 43.2%를 받아 10점대 이하에 그친 다른 모델을 앞섰다. 추론 특화 모델 '딥시크-R1'은 미국 수학경시대회인 AIME 2024 벤치마크 테스트에서 79.8%의 정확도를 기록해 오픈AI의 추론 모델 'o1'(79.2%)을 앞섰다. 또 500개 수학 문제 테스트에서 정확도는 97.3%를 기록했고, 다양한 주제의 복잡한 다중 질문 테스트(FRAMES)에서도 82%로 76.9%의 'o1'을 능가했다. AI 데이터 기업 스케일AI의 알렉산더 왕 최고경영자(CEO)는 “우리가 발견한 것은 딥시크의 성능이 최고이거나 미국의 최고 모델과 거의 동등하다는 것"이라고 말했다. 마이크로소프트(MS) 사티아 나델라 최고경영자(CEO)는 지난주 스위스 다보스에서 열린 세계경제포럼에서 “딥시크의 새로운 모델을 보면 추론 연산을 수행하는 오픈소스 모델을 정말 효과적으로 만들면서, 슈퍼 컴퓨팅 효율성도 뛰어나다는 점에서 엄청나게 인상적이다"라고 평가한 바 있다. 딥시크의 모델이 오픈소스로 풀리면서 AI 개발자들이 적극적으로 사용하기 시작했고, 이들 사이에서 그 성능과 추론 능력에 대한 호평이 나오면서 급속도로 확산했다. 현재는 챗GPT를 제치고 미국 애플 앱스토어 다운로드 1위에 올랐다. 한편, 27일(현지시간) 뉴욕증시에서 기술주 중심의 나스닥 지수는 전 거래일보다 3.07% 급락 마감했다. AI 산업의 총아 엔비디아는 이날 주가가 17% 폭락했다. 박성준 기자 mediapark@ekn.kr