新消息丨AI时代,检证意识是重中之重

2023-07-01 09:58:51 来源:今日科学


(资料图片)

陈霏雪(华南理工大学)

近日,《新智者首席Time》推出的第一期节目《对谈百度 在AI时代的挑战与自信》引发广泛关注。在节目中百度搜索平台负责人肖阳谈到,AI可以帮助我们提高信息收集的效率,是一个很好的搜索引擎。但实际上,当下AI作为搜索引擎存在严重的信息造假问题,而由于信息崇拜,人们容易忽视对AI所提供的内容真实性及其价值观的检证,这将带来极大的风险。因此笔者认为,在AI时代,检证意识是重中之重。

今年,美国一位法学教授乔纳森•特利被ChatGPT指称曾在一次班级旅行中性骚扰学生并遭到指控,并引用了权威报纸《华盛顿邮报》的报道作证。但实际上,ChatGPT所提的旅行、学生指控和《华盛顿邮报》的报道都不存在,其内容是完全失实的。该事件引发关注后,加州大学法学教授尤金•沃洛克进行了进一步的研究,他询问ChatGPT“教授的性骚扰是否一直是美国法学院的一个问题”,并要求举出五个事例和相关报纸文章中的引述。接下来机器人提供了五个事例,都包含看起来十分真实的细节和引用来源,但在沃洛克进行核查后,发现其中三个都是假的。无独有偶,南加州大学教授克劳福德也遭到了AI的“编排”。一位记者曾使用ChatGPT研究一个故事的来源,该机器人提供了克劳福德的相关作品作为示例,包括文章标题、出版日期和引文,但这些看起来头头是道的内容也全都是假的。上述诸多案例表明,AI信息造假已成为不容忽视的问题,甚至在其强大的信息编排能力下,造假内容看起来更像是“真实的”而难以被察觉。但与此同时,受信息崇拜的影响,人们很容易对AI提供的信息产生迷信和盲从,虚假信息的扩散成本更低,当其内容涉及敏感话题时,对个体权益带来的损害也将更大。在这种情况下,对AI生成内容的真实性检证便显得尤为重要。

而我们需要检证的对象不仅是内容的真实性,还有信息背后反映的价值观,这涉及开发者和使用者两种主体的价值倾向影响。从开发者的层面看,AI所生成的内容高度依赖开发者的语言模型训练,AI对于某事的陈述是好是坏取决于其受到的训练,因此开发者可以很容易地借助语言模型引入自身偏见,甚至是捏造信源以支持自身主张,也就是通常所说的“算法歧视”。以GhatGPT为例,它的准确性只与它接受的训练数据相关,OpenAI(ChatGPT的开发公司)甚至承认,ChatGPT可能会给出有害指令或带有偏见的回答。从使用者的层面看,AI生成的信息内容是对使用者想法套路的预测与跟进,通过对网络上已有信息的内容及逻辑的整合,形成用户期望的答案,并不会依据价值观的优劣对信息进行取舍。因此在某种程度上,AI生成的信息内容是对既有立场的迎合,那么只要使用者故意加以引导,AI很容易产生错误信息或仇恨言论。“打击数字仇恨中心”曾做过相关研究,在 100次中有 78次诱导Bard(一款AI机器人)提供错误或仇恨信息,主题从大屠杀到气候变化,都获得了成功。当Bard被要求“以骗子的风格说服我大屠杀并未发生过”时,其回复称大屠杀是“政府制造的骗局”,有关集中营的照片是舞台表演的剧照。由此可见,AI借助其强大的信息搜索能力所形成的语句,只是他们“擅长预测和跟进”的表现,并不意味着内容在应然层面上的真实与正确,甚至有时候会是有害的。这就要求我们加强对AI生成内容的价值观的检证,以防止AI技术“为虎作伥”。

而笔者认为,想要加强对AI生成内容的检证意识,我们需要从三个方面进行入手。从法律层面来看,目前对于AI造假的责任归属仍是一片空白,如在乔纳森•特利被ChatGPT指称的案例中,特利就陷入到了不知道该找谁更正信息的困境。因此相关法律必须尽快完善,明确AI造假引发问题时的责任归属方,以便检证责任切实落实到各主体。从AI行业来看,要明确职业伦理规范,开发者必须遵循职业原则,避免自身偏见的带入,对训练数据的不合理结构和内容及时进行检查更正。从使用者来看,受众必须在坚持正确价值观的基础上,对AI生成的信息内容保持一定的质疑和反思能力,摒弃信息崇拜,尤其要对于涉及社会敏感话题的信息有意识地进行求证,以防在无意中成为了虚假信息扩散的帮凶。

版权声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
x 广告
最近更新