事情的起点,是新加坡版的《Esquire》,他们发了一篇
对新田真剑佑的深度专访文章。
整个专访标结构完整、问答清晰,甚至连语气,都很像那种“已经接受过很多采访的成熟演员”。
你看完大概率不会起疑,因为它写得太“像真的了”。
问题在于它确实“像”,但它不是真的。
这篇文章上线其实一段时间后,有粉丝在读的时候就觉得不对劲:
有些回答,和过去采访内容“似曾相识”有些表达方式,很像机器总结出来的“标准答案”整体语气过于平滑,没有真实访谈的停顿感和个性
工整得根本不像人说的话,
后来一查果然出事了。
面对媒体追问,《Esquire》的编辑直接给了一个堪称“史诗级离谱”的解释:
因为赶稿压力大,所以用了点创意。
他们从新田真剑佑过去的采访里抽取一些回答素材,再丢进AI(包括 Claude 和 Microsoft Copilot)生成一篇“全新”的专访
这件事一爆出来,粉丝的都很失望,甚至有点被冒犯。
一个演员的采访,有价值的地方是真人,就算他有表达不完整的地方也没事。
因为粉丝关注的是这个人,而不是一场完全编撰出来的“完美表达”。
更有意思的一点是,这篇文章其实
在开头是有标注的
。
写明了内容由AI生成,并经过人工编辑
但问题是有多少人会认真看这种说明?
大多数读者的阅读路径是:标题 → 正文 → 结束
很少有人会停下来研究“这段话是谁写的”。
于是结果就变成
形式上透明,体验上完全不透明。
这次事件,到目前为止:
演员本人没有回应经纪公司也没有明确表态平台也只是解释了一句
表面看,好像也就这样过去了。
但它留下了一个很难回避的问题,
以后再看到类似的内容,你还会全信吗?
内容可以被生成,人不能。
你可以用AI写故事、写总结、写分析,甚至写评论。
但当你开始让它去“代替某个人发言”的时候,事情就变味了。