딥시크, 엔비디아 아닌 화웨이 칩 최적화 언어모델 발표

2025-08-21

[베이징=뉴스핌] 조용성 특파원 = 중국의 AI 기업인 딥시크(DeepSeek)가 엔비디아가 아닌 중국산 칩에 최적화한 대형 언어 모델(LLM)을 발표했다.

딥시크는 21일 범용 대형 언어 모델인 V3.1을 발표했다. 앞서 딥시크는 지난해 7월 LLM인 V3를 발표했다. V3는 엔비디아 H800 GPU 기반의 데이터 센터에서 훈련됐으며, 엔비디아 칩으로 구동됐다. 다만 중국산 반도체가 호환될 수 있었다.

V3.1은 V3의 후속 버전이다. 싱크(Think) 모드에서는 수학이나 복잡한 연산을 해결할 수 있고, 논싱크 모드에서는 일상 대화와 단순 질의응답이 가능하다. 추론 속도가 V3에 비해 향상됐으며, 수십만 자에 달하는 문서를 한 번에 처리할 수 있다.

특히 딥시크는 "V3.1은 UE8MO FP8 정밀도 형식을 지원한다"면서 "곧 출시될 중국산 차세대 칩에서 효율적으로 작동되도록 최적화됐다"고 설명했다. UE8MO FP8는 딥시크가 자체 개발한 연산 속도와 메모리 효율을 극대화한 FP8(8비트) 숫자 포맷이다.

딥시크가 언급한 중국산 차세대 칩은 화웨이의 어센드(성텅, 昇騰) 910C일 것으로 분석된다. 딥시크는 과거부터 어센드 칩을 추론 용도로 활용해왔고, 중국 내 매체들은 어센드 910C가 엔비디아 H100 대비 60% 수준의 추론 성능을 달성했다고 보도한 바 있다.

다만 훈련에서는 화웨이의 칩이 사용되지는 않았을 것으로 추정된다. 딥시크는 화웨이 칩으로 훈련을 하려고 했지만 성능이 불안정했고, 칩 간 연결 속도가 느리다는 문제가 발생했던 것으로 알려졌다.

한편 딥시크가 지난 1월 발표하면서 전 세계에 충격을 안겨줬던 추론 모델 R1의 후속작인 R2의 발표일은 아직 확정되지 않았다. 당초 딥시크는 R2를 5월에 출시한다는 방침이었지만 화웨이 칩을 사용한 훈련이 실패하면서 출시가 늦어진 것으로 전해졌다. 이후 엔비디아 GPU를 활용해 훈련을 진행했으며, 현재는 훈련을 완료하고 성능 검토 단계를 진행하고 있다. 일부 중국 매체들은 R2가 8월 중 발표될 것으로 전망하고 있다.

ys1744@newspim.com

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.