Run in Apifox
Request
Example: Bearer {{YOUR_API_KEY}}
Body Params application/json
messages
array [object {2}]
required どのサンプリング温度を使用するかは、0から2の間で指定します。値が高い(例:0.8)ほど出力はよりランダムになり、値が低い(例:0.2)ほど出力はより集中し確定的になります。 通常、このパラメータかtop_p
のいずれか一方のみを変更することを推奨します。
温度サンプリングの代替方法として、カーネルサンプリングと呼ばれるものがあります。この方法では、モデルが top_p 確率質量を持つトークンの結果のみを考慮します。つまり、0.1 は上位10%の確率質量を構成するトークンのみが考慮されることを意味します。 通常は、これまたはtemperature
のいずれか一方のみを変更し、両方を同時に変更しないことを推奨します。
各入力メッセージごとに生成されるチャット完了オプションの数。
設定すると、ChatGPTのように一部のメッセージがインクリメンタルに送信されます。トークンが利用可能になると、そのトークンは純粋なデータとしてサーバー送信イベント でdata: [DONE]
として送信され、ストリームはメッセージによって終了します。サンプルコードについては 、OpenAI Cookbook をご参照ください。 API は、最大で 4 つのシーケンスの生成を停止します。
チャット完了時に生成される最大トークン数。入力トークンと生成トークンの合計長は、モデルのコンテキスト長の制限を受けます。
完了における指定トークンの出現確率を変更します。 トークン(トークナイザー内のトークンIDで指定)を -100 から 100 までの関連バイアス値にマッピングする json オブジェクトを受け取ります。数学的には、バイアスはサンプリング前にモデルが生成する logits に加算されます。正確な効果はモデルによって異なりますが、-1 から 1 の値は選択される確率を減少または増加させるはずです。-100 や 100 のような値は、関連するトークンの禁止または排他的な選択を引き起こすはずです。
最終ユーザーを一意に識別するための識別子であり、OpenAI が不正行為の監視および検出を支援します。詳細はこちら 。
{
"model" : "deepseek/deepseek-r1-0528" ,
"messages" : [
{
"role" : "user" ,
"content" : "Hello!"
}
]
}
Request samples curl --location --request POST 'https://api.302.ai/v1/chat/completions' \
--header 'Accept: application/json' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "deepseek/deepseek-r1-0528",
"messages": [
{
"role": "user",
"content": "Hello!"
}
]
}'
Responses application/json Generate Code
choices
array [object {3}]
required
{
"id" : "chatcmpl-123" ,
"object" : "chat.completion" ,
"created" : 1677652288 ,
"choices" : [
{
"index" : 0 ,
"message" : {
"role" : "assistant" ,
"content" : "\n\nHello there, how may I assist you today?"
} ,
"finish_reason" : "stop"
}
] ,
"usage" : {
"prompt_tokens" : 9 ,
"completion_tokens" : 12 ,
"total_tokens" : 21
}
}
Modified at 2025-07-09 08:07:49