mask)与保真度控制(input_fidelity)。gpt-image-2 的编辑接口在 中文字符 / 非拉丁字符渲染、高分辨率(最高 2K)、多图融合 三个方面相比 gpt-image-1.5 有显著提升。multipart/form-data,不是 JSON;请在 Apifox 的 Body 类型里选 form-data。image 字段支持一次传多张参考图,最多 16 张(OpenAI 官方上限)。多张的做法是重复同名字段 image,或写作 image[]。moderation_blocked 报错。transparent 背景本网关暂不支持,会返回:Transparent background is not supported for this model.image:参考图,支持 png / jpeg / webp,单张最大 25 MB;多张建议不超过 6 张以保证可控性。mask:可选的蒙版,和 image[0] 尺寸必须一致,PNG 带 alpha 通道;alpha=0 的区域会被重绘alpha=255 的区域保留原像素input_fidelity:low(默认):允许模型大幅改动原图,更适合"把风格换掉"的场景high:尽量保留原图主体特征(人脸、商品细节),更适合"微调衣着 / 背景替换"的场景size / quality / output_format / n 的取值规则与 /v1/images/generations 完全一致,参考图片生成接口文档。n 支持 1-10,单次返回多张;想批量生图优先用 n,不要客户端并发。input_fidelity=high + mask(把人物区域 alpha=255 锁住)。input_fidelity=low,不传 mask。image 字段即可,不需要 mask。edits 下同样稳定;若想保留参考图上的原始文字,请显式在 prompt 中写「保留图中文字『XXX』,不要修改文字内容」。data[].b64_json(base64),不返回 URL。