데미스 하사비스 구글 딥마인드 CEO
파리 AI 액션 서밋 등에서 공개 비판

저비용·고성능 인공지능(AI)으로 알려져 세계적으로 주목받은 중국 스타트업 딥시크의 모델에 대해 여러가지 비판이 나오고 있다. 이 가운데는 딥시크 측이 밝힌 것과는 달리 비용이 많이 들었을 것이라는 비판이 가장 많다.
데미스 하사비스 구글 딥마인드 CEO(2024년 노벨화학상 수상자)가 10일(현지시각) 블룸버그TV와의 인터뷰에서 AI시스템 개발에 600만달러 미만을 지출했다는 딥시크 발표에 대해 "과장되고 오해의 소지가 있다"며 비판 대열에 합류했다.
그는 "총 비용의 일부에 불과한 최종 훈련 라운드 비용만 보고한 것 같다"고 말했다. 또 프랑스 파리에서 이날 열린 AI 액션 서밋에 참가해서도 "새로운 만병통치 기술은 보이지 않는다"며 "딥시크의 모델들은 효율면에서 이상적이지 않다"고 평가했다. 이와 함께 해당 모델이 "서구 모델에 의존해 추출된 것 같다"고도 말했다.
딥시크는 지난해 12월말 발표한 대형언어모델(LLM) '딥시크V3'에 대해 엔비디아의 저사양 데이터센터용 그래픽처리장치(GPU)인 H800 2000개를 사용해 개발했으며 비용이 557만6000달러(약 81억원)만 들었다고 밝혀 세계를 놀라게 했다.
하지만 미 리서치업체인 세미어날리시스는 최근 딥시크가 보유한 엔비디아의 최신 고성능 칩(GPU)이 미국 정부가 중국 수출을 금지하고 있는 H100 제품을 포함해 5만개에 달하는 것으로 파악됐다고 밝혔다.

이런 칩들은 약 10억 달러어치에 달하며 이를 가동한 총 AI 개발 비용은 오픈AI나 구글, 메타와 같은 미국의 AI개발자들과 크게 다르지 않을 것으로 추정됐다. 하사비스도 이날 딥시크가 발표한 모델 개발비용은 부분적인 것일 수 있다는 지적을 한 것이다.
딥시크는 또 모델 개발 과정에서 오픈AI의 모델들을 '증류(distillation)' 방식으로 무단 사용했다는 의심도 받고 있다. '증류'란 크고 복잡한 AI 모델을 성능을 유지하면서 더 작은 모델로 압축해 경량화하는 것을 말한다.
예를 들어 오픈AI가 개발한 거대 언어모델인 GPT-4는 개별 기업이 API(컴퓨터 프로그램 끼리 소통하도록 돕는 소프트웨어)를 사용료를 내고 써서 최적화 모델을 만들어 쓸 수 있다. 이는 라이선스를 기반으로 한 미세조정(fine tunning)으로 큰 모델에서 작은 모델로 직접적인 지식 전달은 이뤄지지 않아 '증류'라고 하지 않는다.
그러나 GPT-4 모델(선생)의 출력이나 데이터를 이용해 별도의 모델(학생)을 만들었다면 '선생' 모델을 무단으로 베낀 것이어서 '증류'에 해당한다. 오픈AI는 이런 '증류'에 대해선 허용하고 있지 않다.
데미스 하사비스가 딥시크에 대해 '추출된 것 같다'고 한 표현도 '증류'를 지적한 것이다.
오픈AI는 딥시크 측이 자사 모델을 '증류'했다는 의혹에 대해 조사를 진행하고 있으며 미국 정부는 딥시크가 최신 엔비디아 칩(H100)을 보유하고 있다는 보도와 관련해 취득 경로를 조사중이다.
그래도 삭제하시겠습니까?