[AI] Deepseek-v3와 Qwen2.5-Max: 대규모 MoE 모델steemCreated with Sketch.

in #kr23 days ago

최근 DeepSeek 추론 모델 R1 소식과 함께 엔비디아 주가가 하락하면서 많은 이들이 놀랐던 것 같습니다. DeepSeek는 DeepSeek-R1 뿐만 아니라 이미지 생성 모델 Janus도 공개하였습니다.

특히 주목할 만한 부분은 DeepSeek가 저비용(엔비디아의 저사양 그래픽카드 H8 활용)으로 언어 모델을 훈련하면서도 뛰어난 성능을 보인다는 것입니다. 그리고 미국 수학 경시대회에서 79.8%의 성과를 기록하여 ChatGPT를 능가했다고 합니다.

DeepSeek-R1

2025년 1월 20일, DeepSeek에서 DeepSeek-R1 추론 모델을 공개하였습니다.

출처: https://api-docs.deepseek.com/news/news250120

DeepSeek-R1은 DeepSeek의 첫 번째 추론 모델로, DeepSeek-R1의 모태가 되는 R1-Zero는 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 학습하여 자연스러운 추론 능력을 획득했습니다. 이 모델은 수학, 코드, 논리 추론 등 여러 작업에서 OpenAI-o1과 유사한 성능을 달성하였습니다.

그리고 오픈소스로 DeepSeek-R1 양자화 모델(1.5B/7B/8B/14B/32B/70B)을 공개하였습니다. DeepSeek-R1 양자화 모델은 Ollama를 통해 다운로드하여 로컬에서 사용할 수 있습니다.

OpenAI SDK에서 DeepSeek R1 모델 사용하기

DeepSeek는 OpenAI API와 호환되는 deepseek-reasoner 모델을 제공합니다.

출처: https://api-docs.deepseek.com/guides/reasoning_model

deepseek-reasoner는 DeepSeek이 개발한 추론 모델로, 최종 답변을 제공하기 전에 사고의 흐름(CoT, Chain of Thought)을 생성하여 답변의 정확성을 높이는 방식을 사용합니다. API를 통해 사용자는 deepseek-reasoner가 생성한 CoT 콘텐츠를 보고 활용할 수 있습니다.

# API 호출 예시
from openai import OpenAI
client = OpenAI(api_key="<KEY>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[{"role": "user", "content": "9.11과 9.8 중 더 큰 숫자는?"}]
)

reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content

Deepseek R1 모델 가격

DeepSeek R1(deepseek-reasoner) API의 토큰 가격은 $0.55(입력) / $2.19(출력) per 1M tokens입니다.

R1이 정말로 OpenAI의 o1유사한 성능을 낸다면 가격적으로 경쟁력이 매우 높습니다. o1-min 토큰 가격과 비교해도 상대적으로 저렴합니다.

Groq Cloud에서 DeepSeek R1 모델 사용하기

Groq Cloud에서는 deepseek-r1-distill-llama-70b 모델을 을 무료 API로 제공합니다. Groq Cloud의 API를 활용하면 deepseek-r1-distill-llama-70b 모델을 무료로 사용할 수 있습니다.

Qwen2.5-Max

2025년 1월 28일, Qwen도 Mixture-of-Expert (MoE) 모델 Qwen2.5-Max를 공개하였습니다.

출처: https://qwenlm.github.io/blog/qwen2.5-max/

Qwen2.5-Max는 대규모 MoE(Mixture-of-Expert) 모델로, 20조 개 이상의 토큰으로 사전 학습되었으며, SFT와 RLHF 기법을 활용하여 추가 학습되었습니다. 이 모델은 MMLU-Pro, LiveCodeBench, LiveBench, Arena-Hard 등 다양한 벤치마크에서 DeepSeek V3와 같은 최신 모델들을 능가하는 성능을 보여주었다고 합니다.

Qwen2.5-Max는 Alibaba Cloud를 통해 API로 제공되며, Qwen Chat에서도 직접 사용할 수도 있습니다.

Perplexity에서 Deepseek R1 모델 사용하는 방법

이제 Perplexity에서도 DeepSeek R1 모델을 선택하여 사용할 수 있습니다.

Posted using Obsidian Steemit plugin

Sort:  

Upvoted! Thank you for supporting witness @jswit.

Coin Marketplace

STEEM 0.17
TRX 0.24
JST 0.034
BTC 96620.82
ETH 2790.65
SBD 0.65