302.AI API 書類
  1. 複合インターフェース
  • 大規模言語モデル
    • API移行ガイド
    • 独占機能
      • オンライン検索
        • Chat(オンライン検索)
      • ふかさゆうせんたんさ
        • Chat(ふかさゆうせんたんさ)
      • 画像解析
        • Chat(画像解析)
      • 推論モード
        • Chat(推論モード)
      • リンク解析
        • Chat(リンク解析)
      • ツール呼び出し
        • Chat(ツール呼び出し)
      • 長期記憶(Beta)
        • Memobase
          • ユーザー管理
            • Create User (ユーザーの作成)
            • Get User (ユーザー情報の取得)
            • Update User (ユーザー情報の更新)
            • Delete User (ユーザーの削除)
          • データ管理
            • Insert Data (データを挿入)
            • Get Datas (データ一覧取得)
            • Get Data (個別データ取得)
            • Delete Data (個別データの削除)
          • 记忆管理
            • Flush Buffer (メモリを生成)
            • Get User Profile (記憶を獲得する)
            • Delet User Profile (メモリー削除)
        • Chat(長期記憶)
      • 簡易版API
        • Chat(簡易版API)
      • 非同期呼び出し
        • 非同期チャットリクエスト
        • 非同期で結果を取得
      • Claude形式
        • Messages(Claude形式)
    • モデルサポート
      • Models(モデル一覧)
      • Status(モデルのステータス)
    • OpenAI
      • Chat(会話)
      • Responses(会話)
      • Chat(ストリーミング応答)
      • Chat(gpt-4o 画像分析)
      • Chat(gpt-4o 構造化出力)
      • Chat(gpt-4o 関数呼び出し)
      • Chat(gpt-4-plus 画像分析)
      • Chat(gpt-4-plus 画像生成)
      • Chat(gpt-4o-image-generation 画像を修正)
      • Chat(gptsモデル)
      • Chat(chatgpt-4o-latest)
      • Chat(o1シリーズ)
      • Chat(o3シリーズ)
      • Chat(o4シリーズ)
      • Chat(gpt-4o 音声モデル)
      • Responses(Deep-Research)
    • Anthropic
      • Chat(会話)
      • Chat(画像分析)
      • Chat(関数呼び出し)
      • Messages(オリジナルフォーマット)
      • Messages(関数呼び出し)
      • Messages(思考モード)
      • Messages(128K出力)
      • Messages(Claude Code専用)
    • Gemini
      • 公式フォーマット
        • v1beta(公式フォーマット - チャット)
        • v1beta(公式フォーマット - テキストから画像)
        • v1beta(公式フォーマット - 画像編集)
      • Chat(会話)
      • Chat(画像分析)
      • Chat(画像生成)
    • 中国モデル
      • Chat(Baidu ERNIE)
      • Chat(Tongyi Qianwen)
      • Chat(Tongyi Qianwen-VL)
      • Chat(Tongyi Qianwen-OCR)
      • Chat(ZHIPU GLM-4)
      • Chat(ZHIPU GLM-4V)
      • Chat(Baichuan AI)
      • Chat(Moonshot kimi AI)
      • Chat(Moonshot kimi AI-Vision)
      • Chat(01.AI)
      • Chat(01.AI-VL)
      • Chat(DeepSeek)
      • Chat(DeepSeek-VL2)
      • Chat(ByteDance Doubao)
      • Chat(ByteDance Doubao-Vision)
      • Chat(ByteDance Doubao Image Generation)
      • Chat(Stepfun)
      • Chat (Stepfun Multimodal)
      • Chat(iFLYTEK Spark)
      • Chat(SenseTime)
      • Chat(Minimax)
      • Chat(Tencent Hunyuan)
    • SiliconFlow
      • Chat(SiliconFlow)
    • PPIO
      • Chat(PPIO)
    • SophNet
      • Chat(SophNet)
    • オープンソースモデル
      • Chat(LLaMA4)
      • Chat(LLaMA3.3)
      • Chat(LLaMA3.2 マルチモーダル)
      • Chat(LLaMA3.1)
      • Chat(Mistral)
      • Chat(Pixtral-Large-2411マルチモーダル)
      • Chat(Gemma-7B、Gemma-3-27b-it)
      • Chat(Gemma2-9B)
      • Chat(Command R+)
      • Chat(Qwen2)
      • Chat(Qwen2.5)
      • Chat(Qwen2.5-VL)
      • Chat(Qwen3)
      • Chat(Llama-3.1-nemotron)
      • Chat(QwQ-32B、QwQ-Plus、QwQ-32B-Preview)
      • Chat(LongCat-Flash-Chat)
    • 専門モデル
      • Chat(WiseDiag医療モデル)
      • Chat(Xuanyuan金融モデル)
      • Chat(Farui法律モデル)
      • Chat(Alibaba数学モデル)
      • Chat(Perplexity検索)
      • Chat(Alibaba Tongyi翻訳モデル)
    • その他のモデル
      • Chat(grok-3)
      • Chat(grok-2)
      • Chat(grok-2-vision)
      • Chat(Nova)
      • Chat(v0)
      • チャット(UniFuncs深度調査)
      • 非同期結果取得
  • 画像生成
    • 統一インターフェース
      • 302形式V1
        • 画像生成(302フォーマット)
      • 302形式V2
        • 同期画像生成(302フォーマット)
        • 异步获取图片生成结果
        • 非同期画像生成(302フォーマット)
        • webhookリクエストデータ例
      • Openai形式
        • 説明
        • 图片生成(OpenAI格式)
        • 图片编辑(OpenAI格式)
    • GPT-Image-1
      • Generations(画像生成)
      • Edits(画像の修正)
    • DALL.E
      • Generations(DALL·E 3とDALL·E 2)
      • Edits(DALL·E 2)
      • Variations(DALL·E 2)
    • Stability.ai
      • Text-to-image(画像生成-V1)
      • Generate(画像生成-SD2)
      • Generate(画像生成-SD3-Ultra)
      • Generate(画像生成-SD3)
      • Generate(画像生成-SD3.5-Large)
      • Generate(画像生成-SD3.5-Medium)
      • Generate(画像から画像を生成-SD3)
      • Generate(画像から画像を生成-SD3.5-Large)
      • Generate(画像から画像を生成-SD3.5-Medium)
    • Midjourney
      • Imagine(描画)
      • Action(修正)
      • Blend(画像合成)
      • Describe(画像説明)
      • Modal(部分再描画)
      • Fetch(タスク取得)
      • Cancel(タスクキャンセル)
    • Midjourney-Relax
      • Imagine(絵画)
      • Action(修正)
      • Blend(ブレンド)
      • Describe(画像説明)
      • Modal(部分的な再描画)
      • Fetch(タスクを受け取る)
      • Cancel(タスクをキャンセル)
    • Midjourney-Turbo
      • Imagine(描画)
      • Action(修正)
      • Blend(画像合成)
      • Describe(画像説明)
      • Modal(部分再描画)
      • Fetch(タスク取得)
      • Cancel(タスクキャンセル)
    • 302.AI
      • SDXL(画像生成)
      • SDXL-Lora(画像生成-Lora)
      • SDXL-Lightning(高速画像生成)
      • SDXL-Lightning-V2(高速画像生成-V2)
      • SDXL-Lightning-V3(高速画像生成-V3)
      • SD3(画像生成-SD3)
      • SD3(画像生成-SD3-v2)
      • Aura-Flow(画像生成)
      • Kolors(画像生成-Kolors)
      • Kolors(参考画像生成-KLING)
      • QRCode(Art QR code 生成)
      • Lora(画像生成-Lora)
      • Lora(タスク結果を取得)
      • SD-3.5-Large(画像生成)
      • SD-3.5-Large-Turbo(画像生成)
      • SD-3.5-Medium(画像生成)
      • Lumina-Image-V2(画像生成)
      • Playground-v25(画像生成)
      • Omnigen-V1(画像生成)
      • Qwen-Image(画像生成)
      • Qwen-Image-Lora(LoRA画像生成)
      • Qwen-Image-Lora-Trainer(LoRA学習)
      • Qwen-Image-Lora-Trainer(非同期結果取得)
    • Glif
      • Glif(Claude+SD3)
      • Glif(文字からステッカー画像を生成)
      • Glif(文字から落書きを生成)
      • Glif(文字からWojak漫画を生成)
      • Glif(文字からLEGO画像を生成)
    • Flux
      • 公式API
        • Generate (画像を生成)
        • Finetune (微調整)
        • Result (クエリタスク)
      • Flux-Ultra(画像生成v1.1)
      • Flux-Pro(画像生成)
      • Flux-Pro(画像生成v1.1)
      • Flux-Dev(画像生成)
      • Flux-Schnell(画像生成)
      • Flux-Realism(超リアルなLora)
      • Flux-Lora(カスタムLora)
      • Flux-General(高度カスタマイズ)
      • Flux-General-Inpainting(高度カスタマイズ)
      • Flux-Lora-Training(訓練Lora)
      • Flux-Lora-Training(非同期で結果を取得する)
      • Flux-1-Krea(画像生成)
      • Flux-1-Krea-Redux(画像から画像生成)
      • Flux-1-SRPO(画像から画像生成)
    • Ideogram
      • Generate(主体参照)
      • Generate(文字生成图片V3)
      • Generate(文字生成图片)
    • Recraft
      • Recraft-V3(文字から画像を生成)
      • Create-Style(カスタムスタイル)
      • Recraft-20B(画像生成)
    • Luma
      • Luma-Photon(画像生成)
      • Luma-Photon-Flash(高速画像生成)
    • Doubao
      • Generations(Seedream 4.0)
      • Generations(JImeng画像生成)
      • Generations(SeedEdit 3.0)
      • Drawing(Doubao画像生成)
    • Google
      • gemini-2.5-flash-image-preview(オリジナル形式-画像編集)
      • gemini-2.5-flash-image-preview(オリジナル形式-テキストから画像生成)
      • gemini-2.5-flash-image-preview-edit(非同期・リクエストごとの課金 ― 画像編集)
      • gemini-2.5-flash-image-preview(従量課金-テキストから画像生成)
      • gemini-2.5-flash-image-preview-edit(従量課金-画像編集)
      • gemini-2.5-flash-image-preview(非同期・リクエストごとの課金 ― テキストから画像生成)
      • gemini-2.5-flash-image-preview(非同期で結果取得)
      • Imagen-4-Preview (画像生成)
      • Imagen-3 (画像生成)
      • Imagen-3-Fast(画像生成)
      • Imagen-4-Preview-Ultra(画像生成)
      • Imagen-4-Preview-Fast(画像生成)
    • Minimax
      • image(テキストから画像を生成)
    • ZHIPU
      • image(テキストから画像を生成)
    • Baidu
      • iRAG(テキストから画像生成)
    • Hidream
      • Hidream-i1-full(上級版)
      • Hidream-i1-dev(中級版)
      • Hidream-i1-fast(入門版)
    • Bagel
      • Bagel(画像生成)
    • SiliconFlow
      • 画像生成リクエストの作成
    • Higgsfield
      • 画像から動画生成テンプレート
      • 公式フォーマット
        • Motions(テンプレートリスト取得)
        • Generate(公式画像から動画生成)
        • Speak(デジタルヒューマン生成)
        • Fetch(タスク結果取得)
      • Soul(テキストから画像生成)
      • Character(キャラクター生成)
      • APPS(画像から画像へ)
      • Fetch (タスク結果の取得)
    • Kling
      • Images-Generations(画像生成)
      • Fetch(生成画像タスク結果の取得)
    • Tongyi Wanxiang
      • T2I(テキスト画像生成アリババクラウド)
      • Qwen-Image(Alibaba Cloud配置)
      • Tasks(タスク結果の取得)
    • Vidu
      • Reference2Image(参考画像生成)
      • Fetch V2(タスク結果の取得 V2)
  • 画像処理
    • 302.AI
      • Upscale(画像拡大)
      • Upscale-V2(画像拡大-V2)
      • Upscale-V3(画像拡大-V3)
      • Upscale-V4(画像拡大-V4)
      • Super-Upscale(超画像拡大)
      • Super-Upscale-V2(超画像拡大-V2)
      • Face-upscale(肖像画の画像拡大)
      • Colorize(白黒写真に色を付ける)
      • Colorize(白黒写真に色を付ける-V2)
      • Removebg(背景を削除)
      • Removebg-V2(背景を削除-V2)
      • Removebg-V3(背景を削除-V3)
      • Inpaint(画像修正)
      • Erase(オブジェクトの削除)
      • Face-to-many(肖像画画像の様式化)
      • Llava(画像認識)
      • Relight(補助照明)
      • Relight-background(二次光の背景合成)
      • Relight-V2(補助照明-V2)
      • Face-swap-V2(AIフェイススワップV2)
      • Fetch(タスク取得)
      • HtmltoPng(HTMLをPNG形式に変換)
      • SvgToPng(SVGをPNG形式に変換)
      • image-translate(画像翻訳)
      • image-translate-query(画像翻訳結果)
      • image-translate-redo(画像翻訳修正)
      • Flux-selfie(スタイリッシュな自撮り写真)
      • Trellis(画像を3Dモデルに変換)
      • Pose-Transfer(人物のポーズ変換)
      • Pose-Transfer(人物のポーズ変換結果)
      • Virtual-Tryon(バーチャル試着)
      • Virtual-Tryon(バーチャル試着結果)
      • Virtual-Tryon(バーチャル着せ替えV2)
      • Denoise(AIノイズ除去)
      • Deblur(AIによるぼかし除去)
      • SAM(AI生成のマスク画像)
      • Retouch(人物美顔)
      • Moondream2(画像プロンプト生成)
      • Image_Merge(画像のスティッチング)
      • Qwen-Image-Edit(画像の修正)
      • Qwen-Image-Edit-Plus(画像編集)
      • Qwen-Image-Edit-Plus(画像編集結果)
    • 302.AI-ComfyUI
      • 着せ替えタスクを作成する
      • 着替えタスクの作成(マスクをアップロード)
      • 着せ替えタスクのステータスを照会する
      • フェイススワップタスクの作成
      • フェイススワップタスクのステータスを照会
      • 任意の物体を置き換えるタスクを作成
      • 任意物品交換タスクの作成(マスクをアップロード)
      • 任意の物品交換タスクのステータスを照会する
      • 漫画キャラクターを実写化するタスクの作成
      • 漫画キャラクターを実写化するタスクの状態を照会
      • スタイル転送タスクを作成
      • スタイル変換タスクのステータスを照会
      • 画像除去タスクの作成
      • 画像除去タスクの状態を確認
      • 動画顔交換タスクの作成
      • 動画顔交換タスクの状態を確認
      • 创建视频换脸任务(V2)
      • 查询视频换脸任务状态(V2)
    • Vectorizer
      • Vectorize(ベクトル化)
    • Stability.ai
      • Fast Upscale(画像の高速拡大)
      • Creatice Upscale (創造的な画像拡大)
      • Conservative Upscale(保守的な画像拡大)
      • Fetch Creatice Upscale(超高解像度画像拡大)
      • Erase(物体除去)
      • Inpaint(画像修正)
      • Outpaint(画像拡張)
      • Search-and-replace (内容置換)
      • Search-and-recolor (内容再着色)
      • Remove-background(背景除去)
      • Sketch (スケッチから画像)
      • Structure(画像生成)
      • Style (スタイルの一貫性)
      • Replace-Background(背景を変更)
      • Stable-Fast-3D(画像から3Dモデルを変換)
      • Stable-Point-3D(画像から3Dモデルへの変換-新バージョン)
      • Style-Transfer(スタイル移行)
    • Glif
      • Glif(様式化された人物写真)
      • Glif(写真を彫刻に変換)
      • Glif(写真はピクセル化されています)
      • Glif(Logoができました)
      • Glif(画像からGIFを生成します)
    • Clipdrop
      • Cleanup (物体除去)
      • Upscale (AI 増幅)
      • Remove-background(背景除去)
      • Uncrop(画像拡大)
    • Recraft
      • Vectorize Image(画像のベクトル化)
      • Remove Background(背景除去)
      • Clarity Upscale(画像拡大)
      • Generative Upscale(創造的な画像拡大)
    • BRIA
      • Remove Background(背景を削除)
      • Blur Background(背景をぼかす)
      • Generate Background(背景合成)
      • Erase Foreground(前景消去)
      • Eraser(選択部分消去)
      • Expand Image(画像拡張)
      • Increase Resolution(解像度の拡大)
      • Crop(画像を切り抜く)
      • Cutout(商品画像を切り抜き)
      • Packshot(クローズアップ写真)
      • Shadow (影を追加する)
      • Scene (シーン生成)
      • Caption(画像の説明)
      • Register(画像アップロード)
      • Mask(画像分割)
      • Presenter info (顔の解析)
      • Modify Presenter(顔の修正)
      • Delayer Image(画像をPSDに変換)
    • Flux
      • 公式API
        • Generate(画像を変更する)
        • Result(クエリタスク)
      • Flux-V1.1-Ultra-Redux(画像から画像生成-Ultra)
      • Flux-V1.1-Pro-Redux(画像から画像生成-Pro)
      • Flux-Dev-Redux(画像から画像生成-Dev)
      • Flux-Schnell-Redux(画像から画像生成-Schnell)
      • Flux-V1-Pro-Canny(物体の一貫性)
      • Flux-V1-Pro-Depth(深度の一貫性)
      • Flux-V1-Pro-Fill(部分的な描き直し)
      • Flux-Kontext-Pro(画像編集)
      • Flux-Kontext-Max(画像編集)
      • Flux-Kontext-Dev(画像編集)
    • Hyper3D
      • Hyper3d-Rodin(3Dモデルを生成する)
      • Hyper3d-Rodin(タスクの結果を取得する)
    • Tripo3D
      • Task(タスクの提出)
      • Upload(画像アップロード)
      • Fetch(結果を取得)
    • FASHN
      • Fashn-Tryon(バーチャル試着)
      • Fashn-Tryon(バーチャル試着v1.5)
    • Ideogram
      • Edit(主体参照)
      • Remix(主体参照)
      • Reframe(画像拡張V3)
      • Replace Background(背景置換V3)
      • Remix(画像から画像を生成)
      • Upscale(画像拡大)
      • Describe(画像の説明)
      • Edit(画像修正)
      • Describe(画像説明)
    • Doubao
      • SeedEdit(画像コマンド編集 )
      • Character(キャラクター特徴の保持)
      • SeedEdit_v3.0(画像指示編集)
      • SeedEdit_v3.0(结果获取)
      • Portrait(人物写真)
      • Portrait(結果取得)
    • Kling
      • Virtual-Try-On(バーチャル試着)
      • Fetch(タスク結果取得)
      • Images-expand(画像拡張)
      • Fetch(画像の拡大処理タスクの結果を取得する)
    • StepFun
      • Step1x-Edit(画像の修正)
    • Bagel
      • Bagel-Edit(画像編集)
    • 共績算力
      • Flux Dev
        • flux_dev テキスト画像生成タスクを作成
        • flux_dev 文生図タスクをクエリ
      • Flux Kontext Dev
        • flux_kontext_dev 画像編集タスクを作成
        • flux_kontext_devの画像編集タスクをクエリする
        • LoRA画像編集タスクの作成
        • LoRA画像編集タスクの表示
      • Face Swapper
        • face_swapper タスクを作成
        • face_swapper タスクを取得
      • Clothes Changer
        • マスクなし衣装変更タスクを作成
        • マスクなし衣装変更タスクを取得
        • マスクあり衣装変更タスクを作成
        • マスクあり衣装変更タスクを取得
      • Anything Changer
        • 创建无遮罩换任意物品任务
        • 查看无遮罩换任意物品任务
        • 创建有遮罩换任意物品任务
        • 查看有遮罩换任意物品任务
      • Image2Reality
        • 创建动漫任务变真人任务
        • 查看动漫任务变真人任务
      • style_transfer
        • 创建风格迁移任务
        • 查看风格迁移任务
      • Video Face Swapper
        • 動画の顔交換タスクを作成
        • 動画の顔交換タスクを表示
      • Image Eliminater
        • 画像消去タスクを作成
        • 画像消去タスクを表示
    • Hunyuan3D
      • Hunyuan3d-v21(3Dモデル生成)
      • Hunyuan3d-v21(タスク結果取得)
    • Hidream
      • Hidream-E1(画像編集)
    • 通义万相
      • Qwen-Image-Edit(Alibaba Cloud配置)
      • Wanx2.1-ImageEdit(画像編集)
      • Qwen-MT-Image(画像翻訳)
      • Tasks(タスク結果取得)
      • Wan2.5-i2i-Preview(画像編集)
    • Topazlabs
      • シャープ化
      • 強調(きょうちょう)
      • ノイズ除去
      • 修復
      • 照明追加
      • タスク結果を取得
      • ダウンロード
  • 映像生成
    • 統一インターフェース
      • 302形式 V1
        • 動画生成タスク作成
        • 動画タスク情報取得
      • 302形式 V2
        • 動画生成タスク作成
        • 動画タスク情報取得
        • 成功時のwebhookリクエスト例
    • 302.AI
      • Image-to-video (画像から映像)
      • Live-portrait(ライブポートレート)
      • Video-To-Video(映像スタイルの移行)
      • Fetch(结果取得)
      • latentsync(オープンソースのデジタルパーソン)
      • latentsync(タスクの結果を取得)
      • Upscale-Video(ビデオ高画質化)
      • Upscale-Video(ビデオ結果を取得する)
      • Stable-Avatar(オープンソースデジタルヒューマン)
      • Stable-Avatar(タスク結果取得)
      • Wan-2.2-i2v-fast(Wan2.2快速版)
      • Wan-2.2-i2v-fast(動画結果を取得)
    • Stable Diffusion
      • Image-to-video(画像から映像を生成)
      • Fetch Image-to-video(画像から映像を生成)
    • Luma AI
      • Submit(文字/画像から映像を生成)
      • Extend (映像延長)
      • Fetch(タスク取得)
    • Runway
      • Submit (文字から映像を生成)
      • Submit(画像から映像を生成)
      • Submit(画像から映像を素早く生成する)
      • Submit(画像から動画生成 Gen4)
      • Submit(画像から動画生成 Gen4-Turbo)
      • Submit(映像から映像を生成)
      • Submit(映像から映像を素早く生成する)
      • Submit(Act-twoビデオスタイル変換)
      • Submit(動画拡張)
      • Aleph(動画編集)
      • Fetch(タスク取得)
    • Kling
      • 302フォーマット
        • 文字から動画を生成する
          • Txt2Video(文字から映像を生成-1.0-クイック-5秒)
          • Txt2Video_HQ(文字から映像を生成 1.5- HD - 5秒)
          • Txt2Video_HQ(文字から映像を生成 1.5- HD - 10秒)
          • Txt2Video(テキストから動画生成1.6 - スタンダード - 5秒)
          • Txt2Video(テキストから動画生成1.6 - スタンダード - 10秒)
          • Txt2Video(テキストから動画生成1.6 - HD - 5秒)
          • Txt2Video(テキストから動画生成1.6 - HD - 10秒)
          • Txt2Video(テキストから動画生成2.0 – HD – 5秒)
          • Txt2Video(文生動画2.1-マスターバージョン-5秒)
          • Txt2Video(文生動画2.1-マスターバージョン-10秒)
          • Txt2Video(テキストから動画生成 2.5-turbo版-5秒)
          • Txt2Video(テキストから動画生成 2.5-turbo版-10秒)
        • 画像から動画を生成する
          • Image2Video(画像から映像を生成 1.0- クイック - 5秒)
          • Image2Video(画像から映像を生成 1.5- クイック - 5秒)
          • Image2Video(画像から映像を生成 1.0- クイック - 10秒)
          • Image2Video(画像から映像を生成 1.5- クイック - 10秒)
          • Image2Video_HQ(画像から映像を生成 1.5- HD - 5秒)
          • Image2Video_HQ(画像から映像を生成 1.5- HD - 10秒)
          • Image2Video(画像から映像を生成 1.6- スタンダード- 5秒)
          • Image2Video(画像から映像を生成 1.6- スタンダード- 10秒)
          • Image2Video(画像から映像を生成 1.6- HD- 5秒)
          • Image2Video(画像から動画生成2.0 – HD – 5秒)
          • Image2Video(画像から動画生成2.0 – HD – 10秒)
          • Image2Video(画像から映像を生成 1.6- HD- 10秒)
          • Image2Video(マルチ画像参照)
          • Image2Video(イメージビデオ 2.1~5秒)
          • Image2Video(イメージビデオ 2.1~10秒)
          • Image2Video(イメージビデオ 2.1-HD-5秒)
          • Image2Video(イメージビデオ 2.1-HD-10秒)
          • Image2Video(画像から動画 2.1 – マスター版 – 5秒)
          • Image2Video(画像から動画 2.1 – マスター版 – 10秒)
          • Image2Video(画像から動画生成 2.5-turbo版-5秒)
          • Image2Video(画像から動画生成 2.5-turbo版-10秒)
        • Extend_Video(映像延長)
        • Fetch(タスク取得)
      • 公式フォーマット
        • Text2video(テキストから動画生成 公式API)
        • Text2video(テキストから動画生成のタスク結果取得)
        • Image2video(画像から動画生成 公式API)
        • Image2video(画像から動画生成のタスク結果取得)
        • MultiImage2Video(複数画像リファレンス)
        • MultiImage2Video(タスク結果取得)
        • Effects(動画エフェクト公式API)
        • Effects(動画エフェクトタスク結果取得)
    • Minimax
      • Video(テキスト生成動画)
      • Video(画像から映像生成)
      • Video(主体参照による動画生成)
      • Video(カメラ操作)
      • Video(MiniMax-Hailuo-02)
      • Query(タスク照会)
      • Files(映像の保存)
    • Pika
      • 1.5 pikaffects(画像から動画生成)
      • Turbo Generate(テキストから動画生成)
      • Turbo Generate(画像から動画生成)
      • 2.1 Generate(テキストから動画生成)
      • 2.1 Generate(画像から動画生成)
      • 2.2 Generate(Text-to-Video Generation)
      • 2.2 Generate(画像から動画生成)
      • 2.2 Pikascenes(シーン動画を生成)
      • Fetch(タスク照会)
    • PixVerse
      • PixverseエフェクトID
      • PixverseサウンドID
      • Generate(テキスト生成動画)
      • Generate(画像から動画生成)
      • Generate(複数主体の参照)
      • Fetch(結果取得)
      • Lipsync(リップシンクタスクを提出する)
      • Lipsync(リップシンクタスクの結果を取得する)
    • Genmo
      • Mochi-v1(文字から映像生成)
      • Mochi-v1 (タスク結果の取得)
    • Hedra
      • 2.0
        • Audio(音声アップロード)
        • Portrait(肖像画アップロード)
        • Characters(口合成)
        • Fetch(タスク照会)
      • 3.0
        • List Models(モデルのリストを取得する)
        • Create Asset(リソースの作成)
        • Upload Asset(リソースのアップロード)
        • Generate Asset(リソース合成)
        • Get Status(リソース合成結果を取得する)
    • Haiper
      • Haiper(文字から映像生成)
      • Haiper(画像から映像生成)
      • Haiper(文字から映像生成V2.5)
      • Haiper(画像から映像生成V2.5)
      • Haiper(タスク照会)
    • Sync.
      • Generate(リップシンク)
      • Fetch(結果を取得)
    • Lightricks
      • Ltx-Video(テキスト生成動画)
      • Ltx-Video-I2V(画像生成動画)
      • Ltx-Video-v095(テキストから動画生成)
      • Ltx-Video-v095-I2V(画像から動画の生成)
    • Hunyuan
      • Hunyuan(テキストからビデオ生成)
      • Hunyuan(タスクの結果を取得)
    • Vidu
      • Vidu(テキストから動画を生成)
      • Vidu(画像から動画を生成)
      • Vidu(開始フレームと終了フレームから動画を生成)
      • Vidu(参照主体から動画生成)
      • Vidu(シーン動画を生成)
      • Vidu(スマート超高画質)
      • Fetch(タスク結果を取得)
      • Vidu V2(テキストから動画生成)
      • Vidu V2(画像から動画生成)
      • Vidu V2(始端・終端フレームからの動画生成)
      • Vidu V2(主体生成に基づく動画生成)
      • Vidu(シーン動画生成 V2)
      • Vidu V2(スマート超高精細 – プレミアム)
      • Fetch V2(タスク結果の取得)
    • Tongyi Wanxiang
      • I2V(アリババクラウドで画像から動画生成)
      • T2V(アリババクラウドで文章から動画生成)
      • wan-vace(ビデオ編集)
      • wan2.2-a14b-t2v(テキスト動画生成)
      • wan2.2-s2v(デジタルヒューマン生成)
      • wan2.2-animate-move(画像から動作生成)
      • wan2.2-animate-mix(動画フェイススワップ)
      • wan-vace(タスク結果を取得)
      • wan2.2-a14b-t2v(タスク結果取得)
      • Tasks(タスク結果を取得)
      • wan2.2-a14b-i2v(画像動画生成)
      • wan-t2v(テキスト生成動画のオープンソース版)
      • Tasks(タスク結果取得)
      • wan2.2-a14b-i2v(タスク結果取得)
      • wan-t2v(タスク結果を取得)
      • wan2.2-5b-t2v(テキスト動画生成)
      • wan-i2v (画像生成動画オープンソース版)
      • wan2.2-5b-t2v(タスク結果取得)
      • wan-i2v(タスク結果を取得)
      • wan2.2-5b-i2v(画像動画生成)
      • wan2.2-5b-i2v(タスク結果取得)
    • SiliconFlow
      • Video(映像生成)
      • Tasks(結果を取得)
    • Jimeng
      • Seaweed (テキスト/画像生成ビデオ)
      • Seaweed (タスク結果の取得)
      • Seedance(テキスト/画像生成ビデオ)
      • Seedance(最初と最後のフレームからの動画生成)
      • Seedance(参照ベースの動画生成)
      • Seedance(タスク結果の取得)
      • Omnihuman(デジタル人間がタスクを提出する )
      • Omnihuman(タスク結果を取得する)
    • CogVideoX
      • Generations(テキストからビデオへ)
      • Generations(画像から動画へ)
      • Generations(開始フレームと終了フレームからの動画生成)
      • Result(タスクの結果を取得)
    • Google
      • Veo3-Fast(文字生成動画)
      • Veo3-Fast(タスク結果の取得)
      • Veo3-Fast-Frames(テキスト・画像から動画生成)
      • Veo3-Fast-Frames(タスク結果の取得)
      • Veo3-Pro(文字生成動画)
      • Veo3-Pro(タスク結果の取得)
      • Veo3-Pro-Frames(画像・テキスト動画生成)
      • Veo3-Pro-Frames(結果の取得)
      • Veo2(文字生成動画)
      • Veo2-i2v(画像から動画生成)
      • Veo2(タスクの結果を取得する)
      • Veo3(文字生成動画)
      • Veo3(タスク結果の取得)
      • Veo3-V2(V2バージョンAPIフォーマット)
      • 結果を得る(V2バージョンAPIフォーマット)
    • Kunlun Tech
      • Skyreels(画像から映像生成)
      • Skyreels(タスクの結果を取得する)
    • Higgsfield
      • Generate(画像からの動画生成)
      • Shortads(画像から広告ビデオを生成する)
      • Apps(画像から動画へ)
      • Fetch(获取任务结果)
    • Chanjing
      • ビデオ合成タスクを作成する
      • ビデオの詳細を取得する
      • ビデオを削除する
      • サポートされているフォントのリストを取得する
      • デジタルヒューマンのアバターを生成する
      • アバターの詳細を取得する
      • アバターを削除する
      • 公開デジタルヒューマンのリスト
    • Midjourney
      • MJ-Video(画像から動画生成)
      • MJ-Video(视频延长)
      • Fetch(タスク取得)
    • Topview
      • マーケティングデジタル人
        • Avatar Marketing Video提出
        • Avatar Marketing Video結果取得
        • スクリプトリスト取得
        • スクリプト内容変更
      • 通常デジタル人
        • VideoAvatar 提出
        • VideoAvatar 検索
        • プライベートデジタル人作成
        • プライベートデジタル人検索
        • プライベートデジタル人削除
        • パブリックデジタル人検索
        • パブリック音声検索
        • 字幕スタイルインターフェース検索
      • 商品デジタル人
        • Product ImageReplace 提出
        • Product ImageReplace 検索
        • Product Image2Video 提出
        • Product Image2Video 検索
        • パブリックデジタル人検索
        • Product Image2Video 検索
      • 商品画像置換
        • productAnyShoot ReplaceImage 提出
        • productAnyShoot ReplaceImage 検索
        • テンプレートリスト検索
        • テンプレートカテゴリ検索
      • 画像から動画
        • Image2video提出(画像から動画)
        • Image2video検索(画像から動画)
      • Avatar 4
        • デジタルヒューマン生成タスクを提出
        • デジタルヒューマン生成タスク結果を取得
        • 字幕スタイルAPIを照会
        • 公共の音色を照会
        • 利用可能なデジタルヒューマン一覧を照会
        • デジタルヒューマンカテゴリ一覧を照会
        • カスタムデジタルヒューマンを作成
        • カスタムデジタルヒューマンを削除
        • テキスト読み上げタスクを作成
        • テキスト読み上げタスクを照会
      • アップロードインターフェース
    • OpenAI
      • Chat(動画生成)
      • Sora2(非同期リクエスト)
      • Sora2(タスク結果を取得)
  • 音声・映像処理
    • 統一インターフェース
      • 302形式 V2
        • テキスト音声生成(302フォーマット)
        • TTSタスク照会
        • 成功時のwebhookリクエスト例
      • 302形式 V1
        • テキスト音声生成(302フォーマット)
      • テキスト音声生成(Openaiフォーマット)
        • テキスト音声生成(openaiフォーマット)
      • TTSプロバイダー情報照会
    • 302.AI
      • Higgs Audio
        • ボイスクローンタスクの作成
        • ボイスクローンタスクの表示
        • スマート音声生成タスクの作成
        • スマート音声生成タスクの表示
      • IndexTTS-2
        • TTSタスクの作成
        • タスクの照会
      • F5-TTS
        • F5-TTS(テキスト音声変)
        • F5-TTS (非同期テキスト音声合成)
        • F5-TTS (非同期で結果を取得する)
      • Stable-Audio(器楽曲を生成する)
      • Transcript(音声・動画の字幕化)
      • Transcriptions(音声の文字化)
      • Alignments( 字幕のタイミング合わせ)
      • WhisperX(音声からテキスト)
      • mmaudio(文字から音声を生成)
      • mmaudio(AI音声合成)
      • mmaudio (非同期結果を取得)
      • Diffrhythm(楽曲生成)
      • Video-Understanding(動画理解)
      • Video-Understanding(非同期で結果を取得する)
    • OpenAI
      • Speech(音声合成)
      • Transcriptions(音声の文字化)
      • Translations(音声翻訳英語)
      • Realtime(リアルタイム音声(RTV)ダイアログ)
    • Azure
      • AzureTTS(文字から音声へ)
      • Voice-List(音声リスト)
    • Suno
      • Music(Suno全自動モード)
      • Music(Sunoカスタムモード)
      • Music(Sunoによる歌詞生成)
      • Music(Sunoによる歌の続き書き)
      • Fetch(Sunoタスク照会)
    • Doubao
      • tts_hd(テキスト音声変)
      • vc-ata(自動字幕タイミング設定)
      • fetch(字幕生成状況を確認)
      • vc(音声と動画の字幕生成)
      • fetch(音声と動画の字幕結果を確認)
      • Recognize(録音ファイル高速認識)
    • Fish Audio
      • TTS(テキスト音声変)
      • Model(音声モデルを作成する)
      • Model(音声モデルを取得する)
      • Model(音声モデルを削除する)
      • Model(音声モデルを更新する)
      • Model(音声リストを取得する)
    • Minimax
      • T2A(非同期の超長文テキスト音声生成)
      • T2A(语音生成-同步)
      • T2A(音声生成-タスク照会)
      • T2V(テキスト生成用トーン)
      • Files(音声ファイルダウンロード)
      • Music-Upload(元の音楽をアップロード)
      • Music-Generation(新たな音楽生成)
      • T2A(音声生成-同期)
      • ボイスクローン (音色復刻)
      • アップロード(音声アップロード)
    • Dubbingx
      • TTS(テキスト音声変)
      • GetTTSList(音色のリストを取得)
      • GetTTSTask(タスク照会)
      • Analyze(感情の分析)
    • Udio
      • Generate(音楽の生成)
      • Generate(音楽は続く)
      • Query(タスク取得)
    • Elevenlabs
      • 302フォーマット
        • Speech-to-text(音声からテキストへ)
        • Speech-to-text(非同期的に結果を取得する)
        • TTS-Multilingual-v2(文字转语音同步)
        • TTS-Multilingual-v2(文字変換音声)
        • TTS-Multilingual-v2(非同期結果取得)
        • TTS-Flash-v2.5(文字转语音同步)
        • TTS-Flash-v2.5(文字変換音声)
        • TTS-Flash-v2.5(非同期結果取得)
      • 公式フォーマット
        • Text-to-speech(文字変換音声)
        • Speech-to-text(音声変換文字)
        • Text-to-Dialogue(複数人対話作成)
        • Music(音楽生成)
        • Models(トモデルを取得する)
        • Voices(音声を取得)
    • Mureka
      • 既存の歌詞から歌詞を続けて書く
      • ポッドキャスト音声の作成
      • Text-to-Speech
      • 歌詞から楽曲を生成
      • 生成された楽曲を取得
      • 音楽のステムを分離
      • インストゥルメンタル楽曲の生成
      • 音楽をアップロード
      • インストゥルメンタル楽曲の取得
      • プロンプトに基づいて歌詞を生成
    • SiliconFlow
      • 参照音声をアップロード
      • 参照音声を削除
      • 音声からテキストへの変換リクエストを作成
      • テキストから音声への変換リクエストを作成
      • FunAudioLLM/CosyVoice2-0.5B文本转语音
      • fnlp/MOSS-TTSD-v0.5文本转语音
    • Google
      • Text-to-Speech
      • gemini-2.5-flash-preview-tts
      • gemini-2.5-pro-preview-tts
    • Chanjing
      • 言語生成タスクを作成する
      • 音声合成結果を取得する
      • 音声カスタマイズタスクを作成する
      • 音声カスタマイズ結果を取得する
      • カスタマイズされた音声を削除する
    • Kling
      • Video-to-Audio(動画音響効果生成)
      • Video-to-audio(获取任务结果)
      • Text-to-Audio(テキスト音響効果生成)
      • Text-to-Audio(タスク結果取得)
    • Tongyi Wanxiang
      • Qwen-TTS(音声合成)
      • Qwen3-TTS-Flash(音声合成)
    • Topazlabs
      • 動画の高精細化
      • タスク結果を取得
    • Stability
      • Text-to-Audio(テキスト生成音楽)
      • Audio-to-Audio(参照生成音楽)
      • Inpaint(音楽修正/編集)
  • 情報処理
    • 統合検索API
      • 統合検索API
    • 302.AI
      • 管理バックエンド
        • Balance(アカウント残高)
        • Price(APIの価格を取得)
        • ユーザー API キーのリストデータを取得
        • 指定された API キーのデータを取得
        • API キーの作成
        • API キーの更新
        • API キーの削除
      • 情報検索
        • Xiaohongshu_Search(小紅書探索メモ)
        • Xiaohongshu_Search(小紅書ノート検索V2)
        • Xiaohongshu_Search(小紅書ノート検索V3)
        • Xiaohongshu_Note(小紅書からメモを入手)
        • Xiaohongshu_Note(小紅書ノート取得V2)
        • Xiaohongshu_Note(小紅書ノート取得V3)
        • Xiaohongshu_Comments(小红书获取笔记评论)
        • Get_Home_Recommend(小紅書のホームページおすすめ)
        • Tiktok_Search(Tiktok映像検索)
        • Douyin_Search(Douyin映像検索)
        • Twitter_Search(Xの検索内容)
        • Twitter_Post(Xでユーザーの投稿を取得)
        • Twitter_User(Xでユーザーの情報を取得)
        • Weibo_Post(微博でユーザーの投稿を取得)
        • Search_Video(YouTubeビデオを検索)
        • Youtube_Info(Youtubeゲットビデオ)
        • Youtube_Subtitles(Youtube字幕を取得する)
        • Bilibili_Info(Bilibili動画情報を取得する)
        • MP_Article_List(WeChat公式アカウントの記事リストを取得する)
        • MP_Article(微信公众号の記事を取得)
        • Zhihu_AI_Search(知乎AI検索)
        • Zhihu_AI_Search(知乎AI検索結果を取得)
        • Zhihu_Hot_List(知乎ホットリスト/トレンド一覧)
        • Video_Data(動画データを取得)
      • ファイル処理
        • Parsing(ファイルパース)
        • Upload-File(ファイルのアップロード)
        • Markitdown(ファイルをmd形式に変換)
      • コード実行
        • 仮想マシンサンドボックス
          • ワンクリックでコードを実行
          • サンドボックスの作成
          • 自分のサンドボックスリストを照会
          • サンドボックスの破壊
          • コードの実行
          • コマンドラインの実行
          • 指定パスのファイル情報を照会
          • サンドボックスにファイルデータをインポート
          • サンドボックスファイルのエクスポート
        • 静的サンドボックス
          • Run-Code(コード実行エンジン)
        • E2B SDK呼び出し
          • E2B SDK
      • リモートブラウザ
        • 非同期でブラウザ自動タスクを作成する
        • ブラウザ自動化タスクの作成
        • ブラウザタスクのステータスを確認する
      • Paper2Code
        • Paper2Codeタスクを作成する
        • Paper2Codeタスク検索
        • paper2codeタスクを作成する(JSONでパラメータを渡す)
      • Paper2Poster
        • Paper2Posterタスクを作成する
        • Paper2Posterタスク検索
        • paper2posterタスクを作成(JSONでパラメータを渡す)
      • LLMxMapReduce
        • 執筆タスクを作成
        • 執筆タスクを照会
      • LangExtract
        • 情報抽出タスクを作成
        • 情報抽出タスクを表示
      • Dots.OCR
        • dots.ocrタスク作成
        • dots.ocrタスク表示
      • MiniCPM
        • MiniCPM-V 4.5タスク作成
        • MiniCPM-V 4.5タスク確認
      • PDF翻訳
        • PDF翻訳タスクを提出する
        • PDF翻訳タスクを確認する
    • Tavily
      • Search(検索)
      • Extract(ウェブページ抽出)
    • SerpApi
      • Search(検索)
      • Search(広報検索)
      • Search(画像検索)
      • Search(画像で画像を検索)
      • Search(映像検索)
      • Search(学術検索)
      • Search(特許検索)
      • Search(百度検索)
    • Search1API
      • Search(検索)
      • News(ニュース)
      • Crawl(クロール)
      • Sitemap(サイトマップ)
      • トレンディング(人気トレンド)
    • Doc2x
      • バージョン 2
        • PDF(アップロードインターフェース(非同期))
        • Status(状態確認)
        • Parse(エクスポートファイルのリクエスト(非同期))
        • Result(結果取得)
      • バージョン 1(廃止されました)
        • PDF(PDFからMD形式に変換)
        • PDF-Async(PDF非同期変換フォーマット)
        • IMG(IMGからMDへの変換フォーマット)
        • IMG(IMG非同期変換フォーマット)
        • Status(状態確認)
        • Export(ファイルのエクスポート)
    • Glif
      • Glif(Botプラットフォーム)
    • Jina
      • Reader(ウェブページをmd形式に変換)
      • Search(ウェブ検索)
      • Grounding(事実確認)
      • Classify(内容分類)
    • DeepL
      • Chat(任意の言語から英語への翻訳)
      • Chat(任意の言語から中国語への翻訳)
      • Chat(任意の言語から日本語への翻訳)
      • Translate(あらゆる言語への翻訳)
    • Exa
      • Search(検索)
      • Contents(内容取得)
      • Answer(回答)
    • Bocha AI
      • web-search(通常の検索)
      • ai-search(AI検索)
    • RSSHub
      • RSSHub(情報購読)
    • Firefly card
      • saveImg(カード生成)
    • Youdao
      • Youdao(有道翻訳)
    • Mistral
      • OCR(PDF解析)
    • Firecrawl
      • Scrape
      • Batch Scrape
      • Get Batch Scrape Status
      • Get Batch Scrape Errors
      • Map
      • Search
    • 秘塔検索
      • Search
      • Reader
      • Chat
    • MinerU
      • PDF解析タスク作成(オープンソース展開版)
      • PDF解析タスク表示(オープンソース展開版)
      • PDF解析タスク作成(公式無料版)
      • PDF解析タスク表示(公式無料版)
    • 智谱Agent
      • 智谱PPT作成
      • 智谱PPTエクスポート
    • Unifuncs
      • Web-Search (リアルタイム検索)
      • Web-Reader(ウェブページ読み取り)
    • Sophnet
      • 画像認識
      • 文書認識
    • Perplexity
      • Search(検索)
    • Doubao
      • Doubao-Seed-Translation
    • Aminer
      • 学術Q&A
        • 論文Q&A検索
        • AMiner瞑想
      • データ取得
        • 期刊論文
        • 機関詳細
        • 特許詳細
        • 論文詳細
        • 学者画像
        • 学者詳細
        • 論文引用
        • 学者論文
        • 学者特許
        • 論文情報
        • 特許情報
        • 機関論文
        • 機関学者
        • 機関特許
        • 期刊詳細
      • データ曖昧性解消
        • 機関曖昧性解消Pro
        • 機関曖昧性解消
      • データ検索
        • 期刊検索
        • 機関検索
        • 特許検索
        • 論文検索
        • 論文検索Pro
        • 学者検索
      • 複合インターフェース
        • 条件による論文詳細取得
          GET
        • 論文検索API
          GET
        • 論文一括クエリAPI
          GET
  • RAG関連
    • OpenAI
      • Embeddings(ベクトル生成)
    • 中国モデル
      • Embeddings(ZHIPU)
      • Embeddings(BAAI)
      • Embeddings(Baichuan)
      • Embeddings(Youdao)
      • Rerank(Youdao)
      • Rerank(BAAI)
    • Jina
      • Embeddings(ベクトル生成)
      • Tokenizer(文書分割)
      • Rerank(多モーダル再順位付け)
      • Rerank(再順位付け)
    • 302.AI
      • Chat(ナレッジベース)
      • Chat(ナレッジベースチャット-OpenAI互換)
      • Create(ナレッジベースの作成)
      • Delete(ナレッジベースの削除)
      • Upload(ファイルのアップロード)
      • List(KBのリスティング)
      • Info(KB詳細へのアクセス)
      • Meta-Chunking(テキストLLMスライシング)
      • Meta-Chunking(ファイルLLMスライス)
    • SiliconFlow
      • Embeddings
      • Rerank
    • Google
      • Embeddings(ベクトル生成)
  • ツールAPI
    • AI動画素材クリエイティブステーション
      • Scripts(動画素材の文案生成)
      • Terms(動画素材の検索キーワード生成)
      • Videos(動画素材生成タスク作成)
      • Tasks(動画タスクの進捗状況取得)
    • AI論文作成
      • CO-STORM
        • 生成記事タスクを作成します
        • ダイアログインターフェイスを生成し続けます
        • 記事コンテンツインターフェイスを更新します
        • 記事情報を取得する
      • 非同期論文生成
      • 結果を取得
    • AIポッドキャスト制作
      • 非同期ポッドキャストのテキストを生成
      • ポッドキャストのテキスト生成タスクのステータスを確認
      • 非同期でポッドキャストの音声を生成
      • ポッドキスト音声生成タスクのステータスを確認
    • AIライティングアシスタント
      • ツールリストを取得
      • 文案生成
    • AIビデオリアルタイム翻訳
      • 動画情報照会
      • 動画ダウンロード
      • 動画から音声を分離
      • オーディオボーカルの分離と転写
      • 字幕翻訳
      • 動画を焼き付ける
      • 音響クローン
      • タスクの状態を確認
    • AIドキュメントエディター
      • 長いテキストのアウトラインを生成します
      • 記事コンテンツを生成します
    • AIプロンプトの専門家
      • プロンプト最適化
      • 画像プロンプトワード生成
      • SPOプロンプト最適化タスクを作成
      • SPOプロンプト最適化結果を照会
    • Al解答機
      • 解答
    • AI 3D モデリング
      • 3Dモデルファイルタイプ変換
    • Webデータ抽出ツール
      • スキーマを生成します
      • 抽出タスクを作成します
      • クエリ抽出の進行状況
    • AIサーチマスター3.0
      • AI検索
    • AI ベクター画像生成
      • SVGからビデオへ
    • AI PPT作成
      • ワンクリックでPPTインターフェースを生成します
      • ファイルの解析
      • アウトラインを生成します
      • アウトラインコンテンツを生成します
      • テンプレートオプションを取得します
      • PPTインターフェイス(同期インターフェイス)を生成する
      • PPTデータをロードします
      • PPTインターフェイス(非同期インターフェイス)を生成する
      • 非同期クエリはPPTステータスを生成します
      • PPTをダウンロードしてください
      • カスタムPPTテンプレートを追加/更新します
      • ページネーションクエリPPTテンプレート
    • AI学術論文検索
      • arxiv論文検索
      • Google論文検索
    • ウェブサイトのワンクリックデプロイ
      • ホスティングウェブページの作成(フォームパラメータAPI)
      • ホスティングウェブページの作成(JSONパラメータAPI)
      • ホスティングウェブページの作成(バイナリパラメータAPI)
      • APIキーに紐付くホスティングプロジェクト一覧の取得
    • AIアバター作成
      • アバター生成(JSONパラメータ例)
      • アバター生成(form-dataパラメータ例)
    • AIカード生成
      • ポスターを生成
      • 哲学的なカードを生成する
      • ナレッジカードを生成
      • 哲学的名言を生成する
    • AI 画像クリエイティブステーション
      • 非同期リクエスト例を有効化 (画像生成には非同期リクエストの利用がおすすめです。画像生成モデルは時間がかかるため、非同期方式を使用するとリクエストのタイムアウト問題を減らせます。)
      • 使用例/使い方の例
        • 基本画像生成(オプションプロンプト最適化)
        • スタイル修正
        • 英単語カード
        • ビジュアルレシピ
        • 物理破壊効果カード
        • 製品モデル画像
        • パスポートスタンプ生成
        • テーマキートップシーン生成
        • ローポリゴン
        • タイポグラフィ
        • スカルプト生成
        • アイソメトリックミニチュアシーン生成
        • 古書拡張ミニチュアシーン生成
        • 都市アイソメトリックビュー生成
        • ブリスターパック錠剤食品生成
        • Q版3Dキャラクター生成 / SDキャラクター生成
        • 立体レリーフペーパークラフトスタイル生成
        • キャラクター年齢変更
        • 可動フィギュア生成
        • 3Dアバターポーズ生成
        • クレイスタイル生成
        • 3D立体モデル生成
        • キャラクターダブルエクスポージャー
        • 手描き風インフォグラフィックカード
        • ジブリ
        • レゴコレクション
        • クリスタルボール
        • ミクロワールド
        • ステッカーデザイン
        • 手帳ノート
        • クラウドアート
        • ミニ3D建築物
        • 架空ツイートスクリーンショットプロンプト最適化
        • かわいいエナメルピン画像
        • 超リアルフィギュアイメージ
        • ブランドピルチャート
        • オリジナル商品画像
        • アルファベットボックス
        • プラスチックごみ袋
        • 3Dスクロールミニチュアシーン
        • シルエットアート
        • カラーベクターアートポスター
        • レトロプロモーションポスター
        • ファッション雑誌の表紙
        • ミニチルトシフト風景
        • Q版キーホルダー / SDキーホルダー
        • 3Dミニチュアショップ
        • ネイルペイント
        • Tシャツのピン
        • レゴシティ観光スポット
        • ワードとグラフィックの融合
        • 3Dクロームバッジ
        • 動物ランドマークセルフィ
        • カスタムアニメフィギュア
        • すりガラス越しのぼやけたシルエット
        • 錆びた鉄板
        • 流墨
        • ネオン落書き
        • クレーンゲーム
        • クリエイティブミニマル広告
        • ガラスの破片
        • クリエイティブ巾着袋
        • フラワースカルプチャ
        • 多肉植物用鉢
        • レトロSF書籍カバー
        • ゴールドコイン
        • エモーションペストリー
        • ファンバルーン
        • モンスターアルファベット
        • トイボックスの都市
        • 3D人形
        • 服の平置き図
        • アニメから実写化
      • クリエイティブ画像生成
      • テンプレート一覧を取得する
      • 画像生成結果を非同期で取得する
    • AIデジタルヒューマン
      • ビデオ処理リクエストの送信
      • 音声抽出タスク情報の照会
      • ビデオ結合タスク情報の照会
      • ビデオ結合Webhookリクエスト例
      • 音声抽出Webhookリクエスト例
  • ヘルプセンター
    • HTTPステータスコードとその意味
    • 画像翻訳対応言語リスト
  1. 複合インターフェース

論文一括クエリAPI

GET
/aminer/gateway/open_platform/api/paper/list/citation/by/keywords
価格:0.02 PTC/回

Request

Query Params

Header Params

Request Code Samples

Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
Request Request Example
Shell
JavaScript
Java
Swift
curl --location -g --request GET 'https://api.302.ai/aminer/gateway/open_platform/api/paper/list/citation/by/keywords?keywords=["人工智能", "机器学习"]&page=1&size=10' \
--header 'Authorization: Bearer sk-mfYQzy0XTFfz4P16vRE4gFrKK1Nly4TozsMqbbb9PSiJUvFO'

Responses

🟢200成功
application/json
Body

Example
{
    "code": 200,
    "data": [
        {
            "_id": "5e68c5f591e0116bed041477",
            "abstract": "Geologic fractures such as joints and faults are central to many problems in energy geotechnics. Notable examples include hydraulic fracturing, injection-induced earthquakes, and geologic carbon storage. Nevertheless, our current capabilities for simulating the development and evolution of geologic fractures in these problems are still insufficient in terms of efficiency and accuracy. Recently, phase-field modeling has emerged as an efficient numerical method for fracture simulation which does not require any algorithm for tracking the geometry of fracture. However, existing phase-field models of fracture neglected two distinct characteristics of geologic fractures, namely, the pressure-dependence and frictional contact. To overcome these limitations, new phase-field models have been developed and described in this paper. The new phase-field models are demonstrably capable of simulating pressure-dependent, frictional fractures propagating in arbitrary directions, which is a notoriously challenging task.",
            "authors": [
                {
                    "_id": "61b2dda36750f8276edd3a4e",
                    "name": "Jinhyun Choo",
                    "org": "Korea Adv Inst Sci & Technol, Dept Civil & Environm Engn, Daejeon, South Korea"
                }
            ],
            "doi": "10.1016/j.cma.2020.113265",
            "keywords": [
                "fracture",
                "phase-field model",
                "numerical analysis",
                "computational mechanics",
                "geomaterials"
            ],
            "title": "A Phase-Field Model of Frictional Shear Fracture in Geologic Materials",
            "venue": {
                "raw": "FRONTIERS IN BUILT ENVIRONMENT"
            },
            "volume": "10",
            "year": 2024
        },
        {
            "_id": "6221834e5aee126c0f23c2a5",
            "abstract": "In this paper, we introduce a shallow (one-hidden-layer) physics-informed neural network for solving partial differential equations on static and evolving surfaces. For the static surface case, with the aid of level set function, the surface normal and mean curvature used in the surface differential expressions can be computed easily. So instead of imposing the normal extension constraints used in literature, we write the surface differential operators in the form of traditional Cartesian differential operators and use them in the loss function directly. We perform a series of performance study for the present methodology by solving Laplace-Beltrami equation and surface diffusion equation on complex static surfaces. With just a moderate number of neurons used in the hidden layer, we are able to attain satisfactory prediction results. Then we extend the present methodology to solve the advection-diffusion equation on an evolving surface with given velocity. To track the surface, we additionally introduce a prescribed hidden layer to enforce the topological structure of the surface and use the network to learn the homeomorphism between the surface and the prescribed topology. The proposed network structure is designed to track the surface and solve the equation simultaneously. Again, the numerical results show comparable accuracy as the static cases. As an application, we simulate the surfactant transport on the droplet surface under shear flow and obtain some physically plausible results.",
            "authors": [
                {
                    "_id": "53f39148dabfae4b34a56846",
                    "name": "Wei-Fan Hu",
                    "org": "Natl Cent Univ, Dept Math, Taoyuan 32001, Taiwan"
                },
                {
                    "_id": "6525ed3d55b3f8ac46f8ce95",
                    "name": "Yi-Jun Shih",
                    "org": "Natl Yang Ming Chiao Tung Univ, Dept Appl Math, Hsinchu 30010, Taiwan"
                },
                {
                    "_id": "5631de9845ce1e5968c3f3d0",
                    "name": "Te-Sheng Lin",
                    "org": "Natl Yang Ming Chiao Tung Univ, Dept Appl Math, Hsinchu 30010, Taiwan"
                },
                {
                    "_id": "53f47e76dabfaec09f299f92",
                    "name": "Ming-Chih Lai",
                    "org": "Natl Yang Ming Chiao Tung Univ, Dept Appl Math, Hsinchu 30010, Taiwan"
                }
            ],
            "doi": "10.1016/j.cma.2023.116486",
            "issn": "0045-7825",
            "keywords": [
                "Physics-informed neural networks",
                "Surface partial differential equations",
                "Laplace-Beltrami operator",
                "Shallow neural network",
                "Evolving surfaces"
            ],
            "title": "A Shallow Physics-Informed Neural Network for Solving Partial Differential Equations on Surfaces",
            "venue": {
                "raw": "COMPUTER METHODS IN APPLIED MECHANICS AND ENGINEERING"
            },
            "volume": "418",
            "year": 2024
        },
        {
            "_id": "623155ac5aee126c0f2ba59f",
            "abstract": "While the popularity of physics-informed neural networks (PINNs) is steadily rising, to this date PINNs have not been successful in simulating dynamical systems whose solution exhibits multi-scale, chaotic or turbulent behavior. In this work we attribute this shortcoming to the inability of existing PINNs formulations to respect the spatio-temporal causal structure that is inherent to the evolution of physical systems. We argue that this is a fundamental limitation and a key source of error that can ultimately steer PINN models to converge towards erroneous solutions. We address this pathology by proposing a simple re-formulation of PINNs loss functions that can explicitly account for physical causality during model training. We demonstrate that this simple modification alone is enough to introduce significant accuracy improvements, as well as a practical quantitative mechanism for assessing the convergence of a PINNs model. We provide state-of-the-art numerical results across a series of benchmarks for which existing PINNs formulations fail, including the chaotic Lorenz system, the Kuramoto-Sivashinsky equation in the chaotic regime, and the Navier-Stokes equations in the turbulent regime. To the best of our knowledge, this is the first time that PINNs have been successful in simulating such systems, introducing new opportunities for their applicability to problems of industrial complexity.",
            "authors": [
                {
                    "_id": "645320c8ca4e0609eedd482c",
                    "name": "Sifan Wang",
                    "org": "Univ Penn, Grad Grp Appl Math & Computat Sci, Philadelphia, PA 19104 USA"
                },
                {
                    "_id": "65ed902f0b6735f4855eba41",
                    "name": "Shyam Sankaran",
                    "org": "Univ Penn, Dept Mech Engn & Appl Mech, Philadelphia, PA 19104 USA"
                },
                {
                    "_id": "6145a32d9e795e1aeca7521d",
                    "name": "Paris Perdikaris",
                    "org": "Univ Penn, Dept Mech Engn & Appl Mech, Philadelphia, PA 19104 USA"
                }
            ],
            "doi": "10.1016/j.cma.2024.116813",
            "issn": "0045-7825",
            "keywords": [
                "Deep learning",
                "Partial differential equations",
                "Computational physics",
                "Chaotic systems"
            ],
            "title": "Respecting Causality is All You Need for Training Physics-Informed Neural Networks",
            "venue": {
                "raw": "COMPUTER METHODS IN APPLIED MECHANICS AND ENGINEERING"
            },
            "volume": "421",
            "year": 2024
        },
        {
            "_id": "629ec1f85aee126c0fb6f6f3",
            "abstract": "Mesh degeneration is a bottleneck for fluid-structure interaction (FSI) simulations and for shapeoptimization via the method of mappings. In both cases, an appropriate mesh motion techniqueis required. The choice is typically based on heuristics, e.g., the solution operators of partialdifferential equations (PDE), such as the Laplace or biharmonic equation. Especially the latter,which shows good numerical performance for large displacements, is expensive. Moreover,from a continuous perspective, choosing the mesh motion technique is to a certain extentarbitrary and has no influence on the physically relevant quantities. Therefore, we considerapproaches inspired by machine learning. We present a hybrid PDE-NN approach, where theneural network (NN) serves as parameterization of a coefficient in a second order nonlinearPDE. We ensure existence of solutions for the nonlinear PDE by the choice of the neuralnetwork architecture. Moreover, we present an approach where a neural network corrects theharmonic extension such that the boundary displacement is not changed. In order to avoidtechnical difficulties in coupling finite element and machine learning software, we work witha splitting of the monolithic FSI system into three smaller subsystems. This allows to solve themesh motion equation in a separate step. We assess the quality of the learned mesh motiontechnique by applying it to a FSI benchmark problem. In addition, we discuss generalizabilityand computational cost of the learned mesh motion operators",
            "authors": [
                {
                    "_id": "64c672ac75f2d36822f045ad",
                    "name": "Johannes Haubner",
                    "org": "Karl Franzens Univ Graz, Inst Germanist, Univ Pl 3, A-8010 Graz, Austria"
                },
                {
                    "name": "Ottar Hellan",
                    "org": "Simula Res Lab, Kristian Augusts Gate 23, N-0164 Oslo, Norway"
                },
                {
                    "_id": "64352fa0f2699869fc1e1acd",
                    "name": "Marius Zeinhofer",
                    "org": "Simula Res Lab, Kristian Augusts Gate 23, N-0164 Oslo, Norway"
                },
                {
                    "_id": "62e477a4d9f204418d685b48",
                    "name": "Miroslav Kuchta",
                    "org": "Simula Res Lab, Kristian Augusts Gate 23, N-0164 Oslo, Norway"
                }
            ],
            "doi": "10.1016/j.cma.2024.116890",
            "issn": "0045-7825",
            "keywords": [
                "Fluid-structure interaction",
                "Neural networks",
                "Partial differential equations",
                "Hybrid PDE-NN",
                "Mesh moving techniques",
                "Data-driven approaches"
            ],
            "title": "Learning Mesh Motion Techniques with Application to Fluid-Structure Interaction",
            "venue": {
                "raw": "COMPUTER METHODS IN APPLIED MECHANICS AND ENGINEERING"
            },
            "volume": "424",
            "year": 2024
        },
        {
            "_id": "6321467290e50fcafdb9bac6",
            "abstract": "We present and analyze a methodology for numerical homogenization of spatial networks models, e.g. heat conduction and linear deformation in large networks of slender objects, such as paper fibers. The aim is to construct a coarse model of the problem that maintains high accuracy also on the micro-scale. By solving decoupled problems on local subgraphs we construct a low dimensional subspace of the solution space with good approximation properties. The coarse model of the network is expressed by a Galerkin formulation and can be used to perform simulations with different source and boundary data, at a low computational cost. We prove optimal convergence to the micro-scale solution of the proposed method under mild assumptions on the homogeneity, connectivity, and locality of the network on the coarse scale. The theoretical findings are numerically confirmed for both scalar-valued (heat conduction) and vector-valued (linear deformation) models.",
            "authors": [
                {
                    "_id": "53f432abdabfaeecd6939333",
                    "name": "F. Edelvik",
                    "org": "Fraunhofer Chalmers Ctr, Computat Engn & Design, Chalmers Sci Pk, S-41288 Gothenburg, Sweden"
                },
                {
                    "_id": "64b7dc9284100e3215e9afa9",
                    "name": "M. Gortz",
                    "org": "Fraunhofer Chalmers Ctr, Computat Engn & Design, Chalmers Sci Pk, S-41288 Gothenburg, Sweden"
                },
                {
                    "_id": "641140cd1d2dbd0c2a38abb9",
                    "name": "F. Hellman",
                    "org": "Chalmers Univ Technol, Dept Math Sci, S-41296 Gothenburg, Sweden"
                },
                {
                    "_id": "640471d7eef5911ab846ec46",
                    "name": "G. Kettil",
                    "org": "Fraunhofer Chalmers Ctr, Computat Engn & Design, Chalmers Sci Pk, S-41288 Gothenburg, Sweden"
                },
                {
                    "_id": "53f47788dabfaefedbbb24e7",
                    "name": "A. Malqvist",
                    "org": "Chalmers Univ Technol, Dept Math Sci, S-41296 Gothenburg, Sweden"
                }
            ],
            "doi": "10.1016/j.cma.2023.116593",
            "issn": "0045-7825",
            "keywords": [
                "Algebraic connectivity",
                "Discrete model",
                "Multiscale method",
                "Network model",
                "Localized orthogonal decomposition",
                "Upscaling"
            ],
            "title": "Numerical Homogenization of Spatial Network Models",
            "venue": {
                "raw": "COMPUTER METHODS IN APPLIED MECHANICS AND ENGINEERING"
            },
            "volume": "418",
            "year": 2024
        },
        {
            "_id": "6327dda690e50fcafd67df37",
            "abstract": "Nonlinear balanced truncation is a model order reduction technique that reduces the dimension of nonlinear systems in a manner that accounts for either open- or closed -loop observability and controllability aspects of the system. A computational challenges that has so far prevented its deployment on large-scale systems is that the energy functions required for characterization of controllability and observability are solutions of various high -dimensional Hamilton-Jacobi- (Bellman) equations, which are computationally intractable in high dimensions. This work proposes a unifying and scalable approach to this challenge by considering a Taylor -series -based approximation to solve a class of parametrized Hamilton-Jacobi-Bellman equations that are at the core of nonlinear balancing. The value of a formulation parameter provides either open -loop balancing or a variety of closed -loop balancing options. To solve for the coefficients of Taylorseries approximations to the energy functions, the presented method derives a linear tensor system and heavily utilizes it to numerically solve structured linear systems with billions of unknowns. The strength and scalability of the algorithm is demonstrated on two semi-discretized partial differential equations, namely the Burgers and the Kuramoto-Sivashinsky equations.",
            "authors": [
                {
                    "_id": "63ae510f7d3ea0c54a781a8d",
                    "name": "Boris Kramer",
                    "org": "Univ Calif San Diego, Dept Mech & Aerosp Engn, La Jolla, CA 92093 USA"
                },
                {
                    "_id": "53f42bbadabfaedce54ab757",
                    "name": "Serkan Gugercin",
                    "org": "Virginia Tech, Dept Math, Blacksburg, VA 24061 USA"
                },
                {
                    "_id": "53f438dfdabfaedd74db81ad",
                    "name": "Jeff Borggaard",
                    "org": "Virginia Tech, Dept Math, Blacksburg, VA 24061 USA"
                },
                {
                    "_id": "6524aeba55b3f8ac4642a4e3",
                    "name": "Linus Balicki",
                    "org": "Virginia Tech, Dept Math, Blacksburg, VA 24061 USA"
                }
            ],
            "doi": "10.1016/j.cma.2024.117011",
            "issn": "0045-7825",
            "keywords": [
                "Reduced-order modeling",
                "Balanced truncation",
                "Nonlinear manifolds",
                "Hamilton-Jacobi-Bellman equation",
                "Nonlinear systems"
            ],
            "title": "Scalable Computation of Energy Functions for Nonlinear Balanced Truncation",
            "venue": {
                "raw": "Computer Methods in Applied Mechanics and Engineering"
            },
            "volume": "427",
            "year": 2024
        },
        {
            "_id": "633269fb90e50fcafd4913e6",
            "abstract": "In recent years operator networks have emerged as promising deep learning tools for approximating the solution to partial differential equations (PDEs). These networks map input functions that describe material properties, forcing functions and boundary data to the solution of a PDE. This work describes a new architecture for operator networks that mimics the form of the numerical solution obtained from an approximate variational or weak formulation of the problem. The application of these ideas to a generic elliptic PDE leads to a variationally mimetic operator network (VarMiON). Like the conventional Deep Operator Network (DeepONet) the VarMiON is also composed of a sub-network that constructs the basis functions for the output and another that constructs the coefficients for these basis functions. However, in contrast to the DeepONet, the architecture of these sub-networks in the VarMiON is precisely determined. An analysis of the error in the VarMiON solution reveals that it contains contributions from the error in the training data, the training error, the quadrature error in sampling input and output functions, and a \"covering error\" that measures the distance between the test input functions and the nearest functions in the training dataset. It also depends on the stability constants for the exact solution operator and its VarMiON approximation. The application of the VarMiON to a canonical elliptic PDE and a nonlinear PDE reveals that for approximately the same number of network parameters, on average the VarMiON incurs smaller errors than a standard DeepONet and a recently proposed multiple-input operator network (MIONet). Further, its performance is more robust to variations in input functions, the techniques used to sample the input and output functions, the techniques used to construct the basis functions, and the number of input functions.",
            "authors": [
                {
                    "_id": "637254afec88d95668ccf55f",
                    "name": "Dhruv Patel",
                    "org": "Stanford Univ, Dept Mech Engn, Stanford, CA USA"
                },
                {
                    "_id": "62e48a25d9f204418d6a0ba6",
                    "name": "Deep Ray",
                    "org": "Univ Maryland, Dept Math, College Pk, MD USA"
                },
                {
                    "_id": "63af888784ab04bd7fb65276",
                    "name": "Michael R. A. Abdelmalik",
                    "org": "Eindhoven Univ Technol, Dept Mech Engn, Eindhoven, Netherlands"
                },
                {
                    "_id": "53f430ebdabfaeb1a7bb80a6",
                    "name": "Thomas J. R. Hughes",
                    "org": "Univ Texas Austin, Oden Inst Computat Engn & Sci, Austin, TX USA"
                },
                {
                    "_id": "53f436bfdabfaedce553252c",
                    "name": "Assad A. Oberai",
                    "org": "Univ Southern Calif, Dept Aerosp & Mech Engn, Los Angeles, CA 90007 USA"
                }
            ],
            "doi": "10.1016/j.cma.2023.116536",
            "issn": "0045-7825",
            "keywords": [
                "Variational formulation",
                "Deep neural operator",
                "Deep operator network",
                "Error analysis"
            ],
            "title": "Variationally Mimetic Operator Networks",
            "venue": {
                "raw": "COMPUTER METHODS IN APPLIED MECHANICS AND ENGINEERING"
            },
            "volume": "419",
            "year": 2024
        },
        {
            "_id": "6344dee690e50fcafd24e879",
            "abstract": "Hybrid quantum mechanics/molecular mechanics (QM/MM) models play a pivotal role in molecular simulations. These models provide a balance between accuracy, surpassing pure MM models, and computational efficiency, offering advantages over pure QM models. Adaptive approaches have been developed to further improve this balance by allowing on -the -fly selection of the QM and MM subsystems as necessary. We propose a novel and robust adaptive QM/MM method for practical material defect simulations. To ensure mathematical consistency with the QM reference model, we employ machine -learning interatomic potentials (MLIPs) as the MM models (Chen et al., 2022 and Grigorev et al., 2023). Our adaptive QM/MM method utilizes a residual -based error estimator that provides both upper and lower bounds for the approximation error, thus indicating its reliability and efficiency. Furthermore, we introduce a novel adaptive algorithm capable of anisotropically updating the QM/MM partitions. This update is based on the proposed residual -based error estimator and involves solving a free interface motion problem, which is efficiently achieved using the fast marching method. We demonstrate the robustness of our approach via numerical tests on a range of crystalline defects comprising edge dislocations, cracks and di-interstitials.",
            "authors": [
                {
                    "_id": "64bfb90975f2d368227b888d",
                    "name": "Yangshuai Wang",
                    "org": "Univ British Columbia, 1984 Math Rd, Vancouver, BC, Canada"
                },
                {
                    "_id": "53f31d4edabfae9a84441861",
                    "name": "James R. Kermode",
                    "org": "Univ Warwick, Warwick Ctr Predict Modelling, Sch Engn, Coventry CV4 7AL, England"
                },
                {
                    "_id": "619325ac6750f83ab8797ded",
                    "name": "Christoph Ortner",
                    "org": "Univ British Columbia, 1984 Math Rd, Vancouver, BC, Canada"
                },
                {
                    "_id": "542a4f8cdabfae61d4968d4d",
                    "name": "Lei Zhang",
                    "org": "Shanghai Jiao Tong Univ, Inst Nat Sci, Sch Math Sci, Shanghai 200240, Peoples R China"
                }
            ],
            "doi": "10.1016/j.cma.2024.117097",
            "issn": "0045-7825",
            "keywords": [
                "QM/MM coupling",
                "Machine-learned interatomic potentials",
                "A posteriori error estimate",
                "Adaptive algorithm",
                "Crystal defects"
            ],
            "title": "A Posteriori Error Estimate and Adaptivity for QM/MM Models of Defects",
            "venue": {
                "raw": "COMPUTER METHODS IN APPLIED MECHANICS AND ENGINEERING"
            },
            "volume": "428",
            "year": 2024
        },
        {
            "_id": "6348d42590e50fcafd5530ab",
            "abstract": "We present a rate-independent model for isotropic elastic–orthotropic plastic material behaviour in a hyper-elasto-plastic setting at finite strains, which is based on a covariant formulation that includes plastic-deformation-induced evolution of orthotropy. The model relies on a treatment by Lu and Papadopoulos, who made use of the postulate of covariance for an anisotropic elasto-plastic solid and derived constitutive equations of evolving anisotropies at finite strains. The latter is tantamount to the notion of plastic spin. This treatment does not rely on a multiplicative decomposition of the deformation gradient. We test our model on in-plane sheet-metal forming processes, which are governed by the evolution of pre-existing preferred material orientations. Hence, we advocate an orthotropic yield criterion directed by evolving structural tensors to describe this material behaviour. Our formulation yields two key findings. Firstly, the covariant formulation of plasticity yields suitable evolution equations for the structural tensors characterising the symmetry group of the orthotropic yield function. Secondly, the constitutive equations for the plastic variables and the structural tensors, which are both symmetric second-order tensors, give results that are in good agreement with experimental and numerical findings from in-plane sheet forming processes.",
            "authors": [
                {
                    "_id": "53f44753dabfaee43ec816d5",
                    "name": "Christian C. Celigoj",
                    "org": "Graz Univ Technol, Inst Strength Mat, Kopernikusgasse 24-I, A-8010 Graz, Austria"
                },
                {
                    "_id": "53f380c2dabfae4b349f707b",
                    "name": "Manfred H. Ulz",
                    "org": "Graz Univ Technol, Inst Strength Mat, Kopernikusgasse 24-I, A-8010 Graz, Austria"
                }
            ],
            "doi": "10.1016/j.cma.2022.115567",
            "issn": "0022-5096",
            "keywords": [
                "Postulate of covariance",
                "Orthotropy",
                "Evolving anisotropy",
                "Plastic spin",
                "Pulp fibres",
                "Natural fibres"
            ],
            "title": "An Orthotropic Plasticity Model at Finite Strains with Plasticity-Induced Evolution of Orthotropy Based on a Covariant Formulation",
            "venue": {
                "raw": "JOURNAL OF THE MECHANICS AND PHYSICS OF SOLIDS"
            },
            "volume": "193",
            "year": 2024
        },
        {
            "_id": "6348d44b90e50fcafd5557cc",
            "abstract": "A hydro-mechanical-damage fully coupled numerical method is developed for simulations of complicated quasi-brittle fracking in poroelastic media. A unified fluid continuity equation with crack-width dependent permeability, based on the Biot’s poroelastic theory, is used for simultaneous modeling of fluid flow in both fractures and porous media. The fluid pressure is coupled into the governing equations of the phase-field regularized cohesive zone model, which can automatically predict quasi-brittle multi-crack initiation, nucleation, and propagation without remeshing, crack tracking, or auxiliary fields as needed by other methods. An alternate minimization Newton–Raphson iterative algorithm is implemented within the finite element framework to solve the above three-fields coupled problem with nodal degrees of freedom of displacements, fluid pressures, and damages. The method is first validated by three problems with analytical solutions, a problem with experimental results, and a two-crack merging problem with numerical results in published literature, in terms of time evolutions of injected fluid pressures, crack widths and lengths, and final crack paths. Horizontal wellbore fracking problems with parallel hydraulic cracks and random natural fractures are then simulated, with the effects of spacing, number, and angle of perforations investigated in detail. It is found that the developed method is capable of modeling complex multi-crack fracking in both homogeneous media and heterogeneous media with natural fractures, and is thus promising for fracking design optimization of practical exploitation of shale gas and oil.",
            "authors": [
                {
                    "_id": "5614b61b45cedb3397a6310e",
                    "name": "Hui Li",
                    "org": "Wuhan Univ, Sch Civil Engn, Hubei Key Lab Geotech & Struct Safety, Wuhan 430027, Peoples R China"
                },
                {
                    "_id": "542a6a57dabfae2b4e10175d",
                    "name": "Zhenjun Yang",
                    "org": "Wuhan Univ, Sch Civil Engn, Hubei Key Lab Geotech & Struct Safety, Wuhan 430027, Peoples R China"
                },
                {
                    "_id": "56113f4f45ce1e596272d068",
                    "name": "Fengchen An",
                    "org": "China Univ Petr, Sch Safety & Ocean Engn, Beijing 102249, Peoples R China"
                },
                {
                    "_id": "53f42c7edabfaedce54b7e69",
                    "name": "Jianying Wu",
                    "org": "South China Univ Technol, State Key Lab Subtrop Bldg Sci, Guangzhou 510641, Peoples R China"
                }
            ],
            "doi": "10.1016/j.enggeo.2024.107502",
            "issn": "0013-7952",
            "keywords": [
                "Phase field model",
                "Dynamic fracture",
                "Quasi-brittle fracture",
                "Hydraulic fracturing",
                "Pulsing fracking",
                "Horizontal well"
            ],
            "title": "Simulation of Dynamic Pulsing Fracking in Poroelastic Media by a Hydro-Damage-mechanical Coupled Cohesive Phase Field Model",
            "venue": {
                "raw": "ENGINEERING GEOLOGY"
            },
            "volume": "334",
            "year": 2024
        }
    ],
    "log_id": "33Mf4NbmpwKQI9oLH5EQ9WmYp4b",
    "msg": "",
    "success": true,
    "total": 10
}
Modified at 2025-09-30 11:20:51
Previous
論文検索API
Next
Embeddings(ベクトル生成)
Built with