小红书平台的文案,很可能是AI写出来的——日前有媒体把稳到,过去大半年,该平台不少博主都开始用AI生产图文内容,有性情测试类、知识科普类账号涨粉迅速。
Kimi、通义千问、文心一言等一众大模型产品,基本都有专门针对小红书文案的AI撰写能力。

这是AI内容在全体互联网内容中占比变大的一个缩影。
随着天生式人工智能(AIGC)发达发展,AI越来越“聪明”,可以帮人们承担更多事情:资讯平台上,短短几秒就可以天生一篇文章;短视频平台上,从画面、字幕到人物的声音,都可以由AI制作……凡此各类,其影响不得不谨慎评估。

去年年底,关于AI创作边界的谈论就已广泛展开。
一个共识是,除了学术论文等领域,让AI做一些赞助事情,由人做末了的把关与调度,有利于将人从一些根本、繁琐的事情中解放出来。
但根据现行干系规定,至少还要对AI天生内容进行显著标识。

这么做的必要性有二。

你看到的内容很可能是AI生成的若何应对

其一,帮助其他用户区分虚拟与现实,降落用户理解本钱;涉及专业行为等内容时,标识还相称于风险提示。

有调查机构研究创造,AI虚假新闻和信息已开始爆发性增长,背后的动机互异,包括依赖两极分解的内容吸引点击量,获取广告收入。

也有媒体调查创造,AI虚假短视频越来越普遍,视频传播的所谓养生知识、人生哲理等,要么不雅观点过分、要么夹带广告“私货”,具有很强的误导性,此外,由于反复进行演习,AI内容准确性、个性化逐步提升,许多内容不再是“一眼假”,危害性不易被察觉。

最近有个热门话题——关于“9.11和9.9哪个大”,实测了ChatGPT以及目前海内的主流大模型,结果12个大模型中8个都答错了,暴露出AI在某些方面的短板。
今年3月,两名状师用AI天生法律文书,个中的案例却是假的。

专业人士指出,AI“不苟言笑地胡说八道”即AI幻觉具有普遍性,会造成知识偏见与误解,乃至有时会导致安全风险、伦理和道德问题。
虽说不少平台明确,发布者对AI内容产生的相应后果卖力,但人难免有失落察之时,有各种各样的动机与侥幸生理,AI有时也不如我们想象中“聪明”,添加一道“安全门”很有必要。

其二,区分人工内容和AI内容,是避免AI变“笨”的须要。

有研究数据表明,利用AI天生的数据演习超过5次,模型就会涌现崩溃。
如中国工程院院士沈昌祥所说,如果让未经证明的“AI措辞”再次进入互联网,就会“弄脏”互联网,进一步被抓取作为演习AI的语料,AI大模型将会走向崩溃,陷入“模型自噬”。

2023年施行的《天生式人工智能做事管理暂行办法》专门提出要增强演习数据的真实性、准确性、客不雅观性、多样性,便是为了避免AI变得封闭、性能低落。

随着天生式AI本钱越来越低,AI内容同质化等问题伴生而来,保持“数据清洁”须要引起更多重视。

【作者】 杨悦

南方评论