Plextiy Pro 구독자는 매월 $5를 무료로 제공합니다!!!
Plextiy Pro 구독자는 매월 $5를 무료로 제공한다는 말을 듣고 Perplexity API 페이지에 가보니 정말로 보너스 $5가 있었습니다.
지원 모델 및 가격
모델 | 파라미터 수 | 컨텍스트 길이 | 1,000 요청당 가격 | 100만 토큰당 가격 |
---|---|---|---|---|
llama-3.1-sonar-small-128k-online | 8B | 127,072 | $5 | $0.2 |
llama-3.1-sonar-large-128k-online | 70B | 127,072 | $5 | $1 |
llama-3.1-sonar-huge-128k-online | 405B | 127,072 | $5 | $5 |
Rate Limits
모델 | 요청 속도 제한 |
---|---|
llama-3.1-sonar-small-128k-online | 50/min |
llama-3.1-sonar-large-128k-online | 50/min |
llama-3.1-sonar-huge-128k-online | 50/min |
시작하기
from openai import OpenAI
YOUR_API_KEY = "INSERT API KEY HERE"
client = OpenAI(api_key=YOUR_API_KEY, base_url="https://api.perplexity.ai")
messages = [
{
"role": "system",
"content": (
"당신은 인공지능 어시스턴트이며 "
"사용자와 유용하고 상세하며 정중한 대화를 나누세요."
),
},
{
"role": "user",
"content": (
"우주에는 몇 개의 별이 있나요?"
),
},
]
# chat completion without streaming
response = client.chat.completions.create(
model="llama-3.1-sonar-large-128k-online",
messages=messages,
)
print(response.choices[0].message.content)
지식 출처는 response의 citations 속성에 있습니다.
스트리밍을 사용할 수도 있습니다.
# chat completion with streaming
response_stream = client.chat.completions.create(
model="llama-3.1-sonar-large-128k-online",
messages=messages,
stream=True,
)
for response in response_stream:
print(response)
llama-3.1-sonar-large 모델까지는 가격이 저렴해 부담 없이 호출할 수 있습니다. 하지만 llama-3.1-sonar-huge부터는 가격이 다소 부담됩니다.
Posted through the ECblog app (https://blog.etain.club)
[광고] STEEM 개발자 커뮤니티에 참여 하시면, 다양한 혜택을 받을 수 있습니다.
Upvoted! Thank you for supporting witness @jswit.
안녕하세요. 오늘(2024.12.01) 기준 @jsup 2.0 후원 보팅 현황입니다.
jsup 2.0 - 업보팅을 다시 위대하게
@newiz -> @anpigon : 613.77sp
@jsup에 임대하시면 매일 업보팅을 받으며, 23일후부터 매일 큐레이션/패시브 보상을 받습니다. 후원 내역이 있을 경우 임대량에 합산되어 보팅됩니다. 개발자(@joviansummer) 지원 보팅 외에 수수료가 없어 수익률도 우수합니다. 많은 관심 부탁드립니다. 감사합니다.