跳转到主要内容

AI 扩图指南 2026:什么时候该用 Uncrop、Outpaint 和照片外扩

A
14 分钟阅读AI图像编辑

如果你想把照片变宽、变高,却又不想把像素硬拉伸,真正该问的不是“哪个品牌最好”,而是你到底需要快速补边工具、保真优先编辑器、对话式图像编辑,还是带遮罩的 API 工作流。

AI 扩图指南 2026:什么时候该用 Uncrop、Outpaint 和照片外扩

如果你要把一张裁得过紧的人像改成横幅、给商品图补出更多留白,或者把风景图往画面外继续延展,不要直接拉伸图片。正确思路是用 AI 外扩。对大多数“先把比例救回来”的需求,先开 Clipdrop 这类专门的 uncrop 工具就够了。只要原图本身很重要、你又在意主体边缘是否自然,Photoshop Generative Expand 会更稳。若你更想用自然语言去“把场景往外继续写”,ChatGPT Images 是最低摩擦的路线。若你要做批量、自动化、可重复的工作流,那就该看 Vertex AI Imagen 或 OpenAI 的图像 API。

之所以要这样分,是因为大多数“AI 扩图”页面仍把几种完全不同的任务混成一个承诺。它们让人误以为所有工具都在解决同一件事。其实不是。快速补比例、保真优先的照片外扩、创意式场景延展、以及可控的遮罩式生产工作流,本来就是四个不同问题。

下文所有会变化的事实,均已在 2026 年 3 月 27 日 对照官方产品页、帮助文档或 API 文档重新核对。

要点速览

先给最短答案。

如果你的真实任务是最该先打开的工具为什么它赢主要代价
只是想把同一张图改成更宽或更高的比例,用在社媒、广告或演示里Clipdrop Uncrop最快的专用改比例工作流适合快速补边,不适合特别严苛的边缘控制
原图很重要,外扩后必须尽量像原来拍出来的Photoshop Generative Expand保真优先,且可立即手工修边更慢,而且是付费工作流
想靠文字不断把场景往外扩、边改边看ChatGPT Images选区 + 对话的迭代效率高选区并不总是精确,改动可能会溢出
需要明确遮罩行为,做商品图、背景扩展或自动化Vertex AI ImagenBGSWAPOUTPAINT 区分明确开发接入门槛更高
想要一个更像创意编辑器而不是硬性合成器的 APIOpenAI 图像 API多轮编辑、编辑/生成可控、提示词驱动遮罩更像“引导”,不是绝对硬边界

决策图:什么时候该用快速 uncrop、编辑器外扩、对话式编辑或 API outpainting

如果你只记住一句话,就记这句:先选那个既够轻量、又能保护住你最在意部分的工作流。

AI 扩图其实不是一个任务

控制层级示意图:uncrop、保真外扩、提示词扩景和遮罩 outpainting 的区别

“AI 扩图”这个词听起来很简单,但它至少对应四种不同工作。

第一种是补比例。 图你本来就满意,只是现在需要更宽、更高,或者需要换成另一种画幅,才能塞进网页头图、视频封面或社媒版位里。这类任务最适合专门的 uncrop 工具。你的目标不是重做图片,而是把构图救回来。

第二种是保真优先的照片外扩。 比如人物肩膀贴边了、产品图周围留白不够、建筑线条被截断了。此时你不只是“继续补画面”,还要保护原图不漂移。这时需要更强的编辑器,因为一旦边缘被编错,看起来就会很假。

第三种是创意式场景延展。 这里读者其实希望模型主动想象更多场景。比如把一个人像扩成更宽的摄影棚环境,或者让咖啡馆窗边多出更多桌面和空间。这种任务里,对话式编辑通常比死扣遮罩更快,因为你调的是氛围和空间,不只是像素边缘。

第四种是生产级 outpainting。 当你要批量扩很多图、保护主商品、或者做广告/目录/应用内自动化时,这才是真正的 API 问题。此时你关心的已经不是“哪个图看起来最惊艳”,而是“哪个系统给我的编辑契约最清楚”。

所以,很多工具列表之所以读起来都不够解决问题,不是因为它们漏了几个品牌,而是因为它们把不同任务假装成了同一种任务。真正的错误往往不是“选错品牌”,而是拿快速补边工具去做遮罩工作,或者拿聊天式编辑器去扮演生产合成器。

Clipdrop Uncrop 是最快的在线扩图方式

Clipdrop 的官方 Uncrop 页面直接把它描述成一个“优化用于修改图像宽高比”的工具,流程也非常直接:上传图片、选择新的比例、生成更宽或更高的版本。对大多数只是“比例不对”的用户,这就是最符合直觉的答案。

这个优势不能低估。如果你的原图本来就不错,问题只是画幅不适配,那么专门的 uncrop 工具能省掉大量决策成本。你不用先想遮罩,不用先切换编辑模式,也不用把工作拆成多步。直接补出画框、看结果、继续用。

它尤其适合:

  • 把 4:5 的社媒图改成 16:9 横图
  • 给风景图补出安全边距
  • 给居中主体补一点背景空间,而主体本身并没有被严重裁断

但这类工具一旦遇到“边缘必须很准”的画面就会开始吃力。比如人物手臂正好断在边缘、产品轮廓必须干净、建筑线条必须延续得很直时,一键式 uncrop 很容易生成第一眼看着还行、第二眼就露馅的细节。这不是它做得差,而是任务已经变了。

所以 Clipdrop 这类工具最适合的是构图补救。一旦你的真实目标变成主体保护,就该往上一档。

Photoshop Generative Expand 是原图重要时最稳的默认答案

Adobe 当前的 Photoshop 官方文档把 Generative Expand 的用法说得很明确:先把裁剪框往外拖,扩大画布,再选择 Generative Expand。如果你想让 Photoshop 尽量顺着原图自然补完,可以把提示词留空,直接点 Generate。

这个“先留空再生成”的细节非常关键。因为当你的目标是“延续原图”,而不是“重写一张新图”时,空提示词往往比一大段描述更干净。你实际上是在告诉 Photoshop:“按这张图原本的逻辑继续画下去。” 这和“围绕这张图再编一个新场景”是两种完全不同的指令。

这也是 Photoshop 特别适合以下场景的原因:

  • 人像图里发丝、肩膀、衣服边缘不能乱
  • 商品图需要更多留白
  • 室内、建筑、陈列这类对线条连续性敏感的照片
  • 编辑图、媒体图这类必须保住原始摄影感的内容

它相对一键式网页工具的真正优势,不只是“模型强一点”,而是你可以在扩图后立刻修边、补遮罩、微调再裁一刀,而不用换到另一个工具里重新开始。

我的经验很简单:只要这张图本身值得你认真保住,先开 Photoshop。 先用空提示词做连续性外扩,只有当缺失区域确实需要新意图时,再补第二轮更有针对性的提示词。

ChatGPT Images 最适合用文字把场景往外推

OpenAI 的帮助中心现在明确写着,ChatGPT Images 编辑器既支持选区后修改,也支持直接在对话框里描述你要的变更。同时它也明确提醒:高亮选区并不总是精准,修改有可能超出你标记的区域。

这句提醒其实刚好解释了 ChatGPT Images 的最佳使用边界。

它特别适合下面这种需求:

  • “把这张人像扩成更宽的摄影棚场景”
  • “让咖啡馆窗边再多一点桌面和外部空间,但主体别变”
  • “左右两边都补出更多桌面,整体氛围保持不变”

在这种任务里,对话式编辑通常比手工抠遮罩更快,因为你不是只在修边,而是在和模型一起商量“这个更大的场景应该长什么样”。

这种逻辑现在也延伸到了 OpenAI 的开发侧工具。当前图像文档明确写着,Responses API 支持多轮图像编辑,并能通过 action 控制是生成还是编辑。这对做“像创意编辑器一样工作”的产品很有价值。

但同一份文档也说得很清楚:GPT Image 的遮罩更像提示词驱动的引导,不是绝对精确的硬边界。所以如果你要的是“主商品一像素都不能乱”的合成级控制,ChatGPT 不是最稳的契约;但如果你要的是“保持这张图的核心,同时把场景扩得更自然、更完整”,它非常强。

如果你的更大问题其实是“我日常该长期用哪一种图像生成器”,可以继续看我们的最佳 AI 图像生成器指南

做自动化时,真正值得看的是 Vertex AI Imagen 和 OpenAI API

一旦你从单次修图走向可重复工作流,判断逻辑会立刻变得更清楚。你不再问“哪张图单独看最惊艳”,而是问“哪种 API 契约最适合我的控制方式”。

Vertex AI Imagen 在“结构化遮罩编辑”这件事上更清晰。Google 当前的编辑文档把 EDIT_MODE_BGSWAPEDIT_MODE_OUTPAINT 的区别写得非常明确,而且这不是纸面概念。BGSWAP 是在遮罩区域里补背景,同时保留未遮罩区域中的主体内容,所以 Google 才会说它很适合商品编辑。OUTPAINT 则是把图片往遮罩区域继续延展,还能补完贴着边界的部分物体。Google 还建议 outpaint 场景把 mask_dilation 控在 0.010.03 之间,并强调提示词应该描述“缺失区域该长什么样”,而不是只写一个单词。

这就是很典型的生产级契约。它不仅告诉你能做什么,还告诉你系统是怎么想的。

OpenAI 的 API 则更灵活,也更像创意编辑器。你可以通过多轮对话不断迭代同一张图,还能在需要时强制进入编辑模式。但它同样明确提醒:遮罩是引导,不是绝对模板。实际效果上,这让它更适合创意型扩景,而不是那种“英雄商品绝对不能被碰”的刚性任务。

最简单的判断方式如下:

如果你需要更合适的路线原因
保护商品主体,只把背景往外扩Vertex AI Imagen遮罩式编辑模式明确,背景与 outpaint 的区别清楚
做一个可以多轮对话迭代的图像编辑器OpenAI Responses API多轮编辑自然,适合连续改图
先快速试创意,再进严格修图OpenAI + Photoshop / Vertex先用聊天式外扩找方向,再进保真工具收口

如果你的真实任务更接近换背景、清背景,而不是延展画面,可以继续看我们的 Gemini 图片背景修改指南

怎样才能让 AI 扩图更干净

视觉化清单:小步扩画布、保护主体、分阶段提示,能让 AI 扩图更稳定

多数难看的 AI 扩图其实不是随机翻车,而是固定错误反复出现。

先把画布扩少一点。
你一次要求模型补得越多,它越容易从“续画面”滑向“重写整张图”。在很多真实场景里,只多出 15% 到 25% 的边界,就足够解决版位问题。

先做连续性,再做创意。
这也是 Photoshop 空提示词策略特别有价值的原因。先让模型把原图顺下来,再在第二轮去要风格、道具或更明显的构图变化。如果你把“变宽”和“顺便把场景也重做一遍”塞进同一轮,最容易出现主体漂移。

保护你最在意的边缘。
只要人物脸部、商品轮廓、或者任何贴着边界的关键物体存在,优先用带选区或遮罩能力的工具。而且保护边界不要抠得过于死板。就连 Google 自己的 Imagen 文档也建议 outpaint 适度扩张 mask。现实里,略宽松一点的保护范围,往往比刀切一样的边界更容易融合自然。

不要把 AI 扩图当成文字修复工具。
可读文字、Logo、包装文案、UI 截图、信息图里的精确标注,仍然是生成式外扩最容易穿帮的地方。正确做法通常是:先把场景扩出来,再回到设计工具或照片编辑器里修关键文字和几何细节。

任务变了,就换工具。
快速改比例先用一键 uncrop。重视连续性时转去 Photoshop。要创意外扩时用 ChatGPT。要规模化或可重复时再进 Vertex 或 OpenAI API。最好的工作流,常常不是一个工具,而是一次正确的工具交接。

今天到底该先开哪个工具?

如果你只是想让图片适配新的比例,先开 Clipdrop Uncrop 这类专用工具。

如果原图很重要,你承受不了奇怪的肩膀、断裂的边缘、或者被编错的商品轮廓,先开 Photoshop

如果你想让模型和你一起把更大的场景“聊出来”,先开 ChatGPT Images

如果你真正需要的是一个系统,而不是一次会话,那就根据你的工作流是“遮罩刚性优先”还是“对话迭代优先”,去选 Vertex AI ImagenOpenAI 图像 API

这才是“AI 扩图”的真实答案。不是一个万能冠军,而是一套更合适的工作流选择。

常见问题

“AI 扩图”到底是什么意思?
通常指的是用生成式 outpainting 在原始画框之外补出新内容,而不是把已有像素硬拉伸。有些工具叫 uncrop,有些叫 generative expand,也有些把它做成遮罩编辑模式。

对大多数人来说,最快的选择是什么?
如果你真实的问题只是比例不合适,专门的 uncrop 工具最快;如果你的真实问题是“保持这张照片可信,同时多出一点空间”,Photoshop 通常更稳。

商品图最适合用什么?
Photoshop 或 Vertex AI Imagen。商品图对边缘错误容忍度很低,这两条路线都更适合保真优先的任务。

uncrop 和 outpaint 有区别吗?
通常有。uncrop 更像快速改画幅;outpaint 更像在原图边界之外继续生成内容,通常控制更强,也更常配合遮罩。

做图片外扩时,Vertex 和 OpenAI API 该选谁?
如果你要明确的遮罩编辑模式和更结构化的生产工作流,选 Vertex;如果你更重视对话式、多轮次的创意编辑循环,选 OpenAI。

为什么 AI 扩出来的边缘会很怪?
通常是因为一次扩得太多、提示词同时改了构图和主体,或者使用的工具精度不适合你最在意的边界。

分享文章:

laozhang.ai

一个 API,所有 AI 模型

AI 图片

Gemini 3 Pro Image

$0.05/张
官方2折
AI 视频

Sora 2 · Veo 3.1

$0.15/个
异步API
AI 对话

GPT · Claude · Gemini

200+ 模型
同官方价
已服务 10万+ 开发者
|@laozhang_cn|送$0.1