Run in Apifox
ernie-4.0-turbo-128k ernie-4.0-8k ernie-4.5-8k-preview ernie-x1-32k-preview ernie-4.5-turbo-vl-32k ernie-x1-turbo-32k ernie-x1-32k ernie-4.5-turbo-128k Request
Example: Bearer {{YOUR_API_KEY}}
Body Params application/json
messages
array [object {2}]
required 使用するサンプリング温度で、0から2の間の値を指定します。高い値(0.8など)を設定すると出力がよりランダムになり、低い値(0.2など)を設定すると出力がより的を絞ったものになり、確定的になります。通常、このパラメータかtop_pのどちらかを変更することをお勧めしますが、両方は変更しないでください。
カーネルサンプリングと呼ばれる温度サンプリングの代替手法で、上位_p個の確率質量を持つマーカーの結果を考慮するモデルです。つまり、0.1は上位10%の確率を占めるマーカーだけを考慮することを意味します。 私たちは通常、これか temperature
を変更することを推奨しますが、両方は推奨しません。
各入力メッセージに対して生成するチャット完了オプションの数。
設定された場合、ChatGPTのように部分的なメッセージデルタが送信されます。トークンはデータのみのサーバ送信イベント として、利用可能になると送信され、ストリームはデータで終了します:[DONE]メッセージでストリームを終了します。例示源碼 ,OpenAI Cookbookをご覧ください。 APIが追加のトークン生成を停止する最大4つのシーケンス。
チャット完了時に生成される最大トークン数。入力トークンと生成トークンの合計長さは、モデルのコンテキスト長によって制限されます。
指定されたトークンが補完候補に表示される可能性を変更します。 マーカー(マーカー内のマーカー ID で指定)と、関連する偏差値(-100 から 100)を対応付ける json オブジェクトを受け入れます。数学的には、偏差値はサンプリング前にモデルによって生成されたロジットに加算されます。正確な効果はモデルによって異なりますが、-1から1の間の値は選択の可能性を減少または増加させるはずです。-100や100のような値は、関連するトークンの選択を禁止または排他的にするはずです。
{
"model" : "ERNIE-4.0-8K" ,
"messages" : [ { "role" : "user" , "content" : "あなたは誰ですか?" } ]
}
Request samples curl --location --request POST 'https://api.302.ai/v1/chat/completions' \
--header 'Accept: application/json' \
--header 'Authorization: Bearer sk-mfYQzy0XTFfz4P16vRE4gFrKK1Nly4TozsMqbbb9PSiJUvFO' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "ERNIE-4.0-8K",
"messages": [{"role": "user", "content": "あなたは誰ですか?"}]
}'
Responses application/json Generate Code
choices
array [object {3}]
required
{
"id" : "chatcmpl-123" ,
"object" : "chat.completion" ,
"created" : 1677652288 ,
"choices" : [
{
"index" : 0 ,
"message" : {
"role" : "assistant" ,
"content" : "\n\nHello there, how may I assist you today?"
} ,
"finish_reason" : "stop"
}
] ,
"usage" : {
"prompt_tokens" : 9 ,
"completion_tokens" : 12 ,
"total_tokens" : 21
}
}
Modified at 2025-05-08 11:29:50