作者:沙拉酱食色性也,大部分伟大的商业模式的崛起都离不开这点事,AIGC 也不例外。A16Z,硅谷投资圈的顶流 VC,出了一份研究 AI 消费趋势的报告。这份本该正经讨论 AI 生产力的报告里,藏着一页让人哭笑不得的折线图:去年美国用户花在 OpenAI 和纽约时报上的钱,加起来还没有花在 OnlyFans 上的多。图片来源 Giphy生产力不如性张力第一波做 AI 虚拟模特的人,最清楚。大概从 2022 年底开始,Midjourney、Stable Diffusion 这类工具刚刚能稳定出图,就有人意识到:这东西能捏出以假乱真的人脸,能批量生产,成本几乎为零。他们用 AI 生成虚拟女性形象,配上一个名字、一段人设、几条精心设计的“生活日常”,在 Instagram 和 TikTok 上以真人面目运营,私信里的亲密回复则由 ChatGPT 代劳,提供所谓的“女友体验”。整条链路几乎全自动化,背后的操盘手甚至不需要露面。图片来源 Giphy平台再严格,架不住技术在进步,现在 AI 出图以假乱真的程度就连老司机都难以分辨。前几天我就在小红书刷到一个擦边帅哥坐在车里的视频,要不是打开评论区看到置顶的评论是“这个 AI 审美真好”,我都没反应过来这是 AI 帅哥。成人内容之外,还有一波人靠 AI 赚到了钱,方向完全不同:儿童绘本。赵磊(化名)是最早入场的那批人之一。2022 年底,他刚从一家大厂的产品岗被裁,正在家里研究新出路。那会儿 Midjourney 刚刚能稳定出图,他看着生成出来的水彩风小动物,脑子里冒出一个念头:这不就是绘本插画吗?他花了两周研究 Amazon KDP,逻辑极其简单:ChatGPT 写故事,Midjourney 出图,排版上传,等着收钱。“那时候真的好赚,”他说,“几本叠上去,一个月能有一万多的被动收入。”但窗口没开多久。2023 年下半年,KDP 上的 AI 绘本开始爆炸式增长,TikTok 上冒出将近九万条同类教程,标题清一色的风格:EASY AI Money,靠儿童绘本月入十万。所有人涌进同一条赛道,销量迅速被摊薄。质量问题也随之暴露,AI 绘本里开始出现长着巨大前腿的恐龙、手指数量对不上的小孩。各大平台开始要求上传时必须申报是否使用了 AI,这条赛道基本宣告终结。“现在靠 AI 绘本赚钱就已经很难了。”赵磊说。然后他和那批做 AI 擦边的人,不约而同走向了同一个终点:卖课(在这一点上,近期爆火的“龙虾”做到了极致)。图片来源 Giphy以前大家开玩笑说,AI 替代不了设计师,因为甲方根本不知道自己要什么。我以为这是个段子,直到我亲自去用这些工具,才发现这个段子在我身上一字不差地应验了。去年我做了一个媒体账号,想用“可积岛”这个物理概念来做 logo。可积岛大概可以理解成,在混沌的信息流中,那些值得沉淀下来的东西。我找来了这个概念的参考图,打开工具,把图丢进去,又写了一堆描述性的提示词,然后开始出图。结果出来的东西一团乱,改了七八版,每一版都在乱的基础上换了个乱法。我知道我想要某种感觉,但完全不知道怎么把那个感觉翻译成指令。最后还是找了一个做设计的朋友帮忙,她花了二十分钟,出来的版本和我折腾两个小时的结果,根本不是一个量级。Marble 生成 3D 图全景对比鲜明的是一个有摄影经验的朋友,同样的工具,他的出图质量明显高出一截。他说他其实没花太多时间研究提示词技巧,“就是知道自己想要什么构图、什么光线,把这些说清楚,工具自然就给得准。”工具的能力在快速变强,但使用者之间的差距并没有因此缩小,反而在某种程度上被放大了。以前大家都做不出好东西,现在有审美积累的人可以做出很好的东西,没有的人还是在“能用”和“好用”之间徘徊。工具也在对这个现实做出回应。NotebookLM 这类一键模板工具的走红,背后逻辑很简单:它绕开了“你得先知道自己要什么”这个前提。模板帮你做了审美决策,你只需要填内容。但模板的上限也在这里,它能解决“能用”,解决不了“好看”。这件事在文字方向上体现得同样清楚。我有一个做市场策划的朋友,最近被调去负责 PR,需要大量输出文字稿件。领导说可以用 AI,她反而更困惑,来找我要之前写的一个 AI 写作手册。症结在于:她对“一篇好的 PR 稿”没有感觉,不知道好的标准是什么,面对 AI 生成的内容,她没有办法判断要往哪个方向改。图片来源 Giphy面对这个处境的不止他一个人。AI 已经在很多人的评价体系里,悄悄变成了一个道德审判的坐标。这和 Photoshop 或者 Excel 不一样。没有人会在收到一张修过图的照片时问“你是不是用了修图软件”,也没有人会在拿到一份财务报表时追问“你是用 Excel 算的吗”。AI 触发的是另一种怀疑,一种更接近“你有没有真的做这件事”的追问。创意工作里向来有一种隐性的契约,好的作品意味着有人为它付出过时间、精力、打磨。AI 的出现却正好破坏了“付出”和“产出”之间那条大家默认存在的因果线。你用 AI 三天做出来的东西,和别人手工两周做出来的东西放在一起,哪怕质量一样,前者会让人觉得有什么地方不对劲。这种“不对劲”可以总结成”不公平”。亚利桑那大学曾做过一项研究,结果设计师如果主动告知客户使用了 AI 辅助,即便解释了 AI 只是辅助环节,客户对设计师的信任依然平均下降了 20%。而随着 AIGC 技术的成熟,这个问题逐渐从甲乙方个人信任问题,上升到了平台问题。从 2023 年开始,国家陆续出台相关规定,要求对 AI 生成内容进行标注:先是 1 月的《互联网信息服务深度合成管理规定》,主要管 AI 换脸、合成声音这类深度合成技术;同年 8 月《生成式人工智能服务管理暂行办法》正式落地,把 ChatGPT 类的生成式服务也纳入进来。到了 2025 年 3 月,监管再度升级,国家网信办联合多部门发布《人工智能生成合成内容标识办法》,这一次的规定覆盖了文字、图片、音频、视频全部内容形态。但规范无法划清的,是定义。平台能识别一段 100%由 AI 生成的视频,却很难判断边界地带,一张自拍照放进 AI 里调了色和构图,算不算 AI 生成内容;一段视频,素材是自己拍的但剪辑和配乐都交给了 AI,要不要打标签;一篇稿子,AI 出了初稿,人改了七成,这个标签算谁的……图片来源 Giphy边界感的难题背后,其实是权责的问题。定义不清楚,责任就没有落点。当一首歌的旋律是 AI 写的、人改了词,出了版权纠纷,谁来负责?或者一篇测评是 AI 生成的、博主只改了语气,买了推荐产品发现名不副实,我们追问“是不是 AI 做的”,其实是在追问一个更朴素的问题,这个作品背后,到底有没有一个人在认真负责,有没有人在想你的问题,有没有人在乎结果好不好?最难划清的不是边界,是责任。
Thank you for reading this post, don't forget to subscribe!