我是一个技术乐观主义者,也是人工智能工具的坚定支持者。 但我也承认,中国互联网被人工智能生成的内容污染了,而且情况会变得更糟。 如果要怪AI太好用,那就怪那些太擅长钻流量的人了。 在人工智能大语言模型先进技术的支持下,当年的内容农场正在大规模、有组织地输出垃圾内容。 因此,能够识别AI稿件清洗将是一种技能,而培养批判性思维和保持独立思考是一种基本素养。 微信***我每天可以刷很多10w+的AI,为了避免不良诱导,我就不举例了。 微信朋友圈里也有很多人在做类似的AI爆文写作。 微信的做法是要求作者在创作时选择对AI生成的内容进行标记
我不知道标签会有什么影响,但我见过的 AI 内容数字都不会被标记。 如果人工智能生成的标注会限制流量甚至取消收益,显然没有人会主动主动标记,毕竟他们炮制这些内容是为了赚钱。 另一方面,即使用户想投诉,渠道也很少。 在微信***文章的投诉页面中,AI生成的内容没有举报选项,不能包含滥用原创性或抄袭的定义。
从平台的角度来看,如果没有强制性规定,积极控制此类垃圾内容的积极性不会太大,因为就算是内容农场,也是流量,还有人看,不影响广告投放的点。 但如果反过来,如果有人用某种技术手段来扒起广告点击的羊毛,肯定会很快被控制住。 在这种比较中,知乎实际上并不是中国互联网AI手稿最普遍的地方,知乎也在试图管理AI生成的内容。 但实际上,并不是知乎用户的质量比其他平台高,只是他们在这里不赚钱,AI农场甚至懒得在这里做。 当然,知乎上还是有很多AI内容的,尤其是在红包问题和每日热榜下,可以刷很多。 一些AI的眼睛只要报告就会被处理; 但是,只要换几个字或改变语气,就很难识别报告。 因为我大量使用AI,只要不是人为提炼的,不管我怎么调整提示,它仍然是AI。 但是举报的成功率只有一半一半,有时候看到类似的内容还挺烦人的。
以下是失败的报告:
不是我扯伞或砸锅,而是真的毫无意义。 看多了烦人,以后也不想知道。 再说几句闲话。 大型语言模型在一年前首次流行起来,它专注于插件、代理、RAG 和最近的 AI 搜索的内容生成。 开发人员实际上正试图减少或消除大型模型固有的错觉效果。 从 Newbing 到 Perplexity,AI 搜索的好处之一是它被注释以验证来源。 如前所述,知乎在中国互联网搜索引擎中的比例很高。 但如果以后全是AI内容,那么再多的RAG和源验证也行不通,相当于从源头中毒。 目前,AI公司还没有好的办法,他们能做的大概就是贴标签,而是从源头上贴标签。 去年我对这个问题很悲观,一年变得更加悲观......也许有一天,人工智能内容将充斥全国,以至于只有人类生成的内容才会被额外标记为手工制作:(