您当前的位置 :浙江在线 > 时政新闻 > 国际新闻 正文

人类能管住人工智能吗?ChatGPT创始人要借用《道德经》的智慧

字体:
—2023—
06/12
16:05:18
2023-06-12 16:05:18 来源:潮新闻 记者 徐俊

  “千里之行,始于足下。”

  在6月10日举行的2023北京智源大会上,OpenAI的CEO山姆•阿尔特曼在主题演讲中引用了《道德经》的这段话。

  阿尔特曼在演讲中引用《道德经》的话(B站视频截图)

  在他看来,鉴于人工智能(AI)愈发强大,国际间应该展开合作来应对风险。他呼吁在包容性的过程中建立国际规范和标准,并为所有国家使用通用人工智能(AGI)设置平等统一的护栏。

  未来AI对人类的风险是否真的如此之大,以至于需要设立国际标准?在AI领域推进国际合作有哪些难点?潮新闻记者就这些问题采访了复旦大学哲学学院教授、《人工智能哲学十五讲》作者徐英瑾。

  潮新闻:您认为,随着AI的不断发展,是否会像阿尔特曼说的那样需要对其设立国际标准?

  徐英瑾:AI的确带来了一些问题,但就目前来看,它对于世界上大部分人的影响还是有限的,目前较为突出的就是一些合成的图片或视频会混淆真相。

  另一方面,要形成AI发展的国际共识非常困难,因为每个国家目前的AI发展以及对于AI的需求不一样,可能会有截然相反的态度。

  比如,之前意大利就宣布暂时封锁其境内访问ChatGPT的途径,但日本的一些地区却积极拥抱它,期待ChatGPT可以提高老龄化社会的工作效率。这两个G7集团成员国尚且如此,全球共识在可预见的未来是不会出现的。

  面对AI的发展,有其他当务之急要处理。

  潮新闻:您认为的当务之急是什么呢?

  徐英瑾:AI降低了文本、图片和视频的生成成本,所以接下来AI生成的内容会越来越多。为了鉴别内容的真伪,已经出现了相关软件。可这样的软件是不是可以供所有人使用,让大家都有鉴别真假信息的能力?这可能是很重要的一个问题。

  5月26日,小朋友在2023中国国际大数据产业博览会上观看人工智能展示。(图源:新华社)

  另一个当务之急则是搞清楚“智能”究竟是什么。现在世界上最火的AI工具是像ChatGPT这样的大语言模型。但之前我在AI是否会给人类带来灭绝风险的采访中说过,这种大模型是AI发展的歪路。

  尽管它叫“大语言模型”,它学的不是语言,而是语料,是通过预训练掌握大量语词之间的统计学关系来构建出能与人交流的样子。这就相当于一个从没学过日语的人天天和日本人在一起,然后通过超强记忆力把日本人说的每一句话都背下来,再根据他掌握的概率在某个时候发某个音。

  但是,这不是学习语言的正常方式。根据语言学家乔姆斯基的观点,人类语言是有深层结构的,这就是为什么人可以通过语法变换来创造出无穷的表达,并且通过少量数据就可以进行类比。而基于统计学的“说话”则无法对训练之外的内容进行识别,所以无法理解一些比较冷门的比喻。

  因此,越在大语言模型方面进行投入,可能离真正的智能就越远。要了解智能,我们应该去深挖数据背后那个能将其灵活运用的东西。

  而如果我们在不了解何为“智能”的情况下构建AI或者更先进的AGI应有的规范,这是非常荒唐的,相当于古代一群不懂病理、只知道放血疗法的医生讨论放病人多少血符合医学伦理。

  潮新闻:既然大语言模型正在蓬勃发展,我们可不可以构建关于它的全球规范呢?

  徐英瑾:我认为,如果现在统一标准的话,会产生很严重的问题。

  在ChatGPT发展的过程中,开发人员为其设置了一些禁忌,比如不能使用或回答带有歧视性词汇的内容。这当然是出于好意,可现实生活中很多禁忌都不是绝对的。比如,其他肤色的人对黑人说“黑鬼”是对他们的歧视,但黑人演员在脱口秀舞台上是可以用它自嘲的。

  这样的例子不胜枚举。如何鉴别是自嘲、反讽还是真正的歧视,恐怕人类还没有找到一个客观标准。但即便如此,有生活经验的人还是一眼就能分辨出来,这就是一种智能的表现。

  而正因为没找到客观标准,在开发大语言模型的时候,工作人员往往采取“一刀切”的方式,谁都不准用。

  当然,为了对大语言模型进行改善,开发的公司会聘请很多人对语料进行标注。但既然没有客观标准,就算他们的判断能力都很强,也不能找到让机器熟练掌握人类基于智能和经验感受出微妙不同的算法。

  在这样的情况下,如果构建一个关于大语言模型的使用规范,会以“政治正确”的名义消灭人类文明的多样性。比起灭绝人类,这是更可能出现的情况。

  如果之后AI真的渗透进人类生活的各个方面,大家在反讽和自嘲时都会被警告,那将是多么不自由和无趣?

  因此,说到底,我们如果不了解智能,就不能构建出AI产品的使用规范。

  这次阿尔特曼在演讲中引用了《道德经》的“千里之行,始于足下”。我认为比起提升AGI安全技术的透明度和共享机制,更重要的第一步是大家能有意愿去深挖什么是“智能”。

  在引用完《道德经》后,阿尔特曼呼吁国际科技界在AGI安全技术进步方面提升透明度和知识共享。(B站视频截图)

版权和免责申明

凡注有"浙江在线"或电头为"浙江在线"的稿件,均为浙江在线独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"浙江在线",并保留"浙江在线"的电头。

标签:人工智能;OpenAI;ChatGPT;大语言模型;全球治理;老子责任编辑:王志
国内综合
国际新闻
精品专题
更多资讯
浙江在线新闻网站版权所有 Copyright © 1999-2023 Zjol. All Rights Reserved

未来AI对人类的风险是否真的如此之大,以至于需要设立国际标准?在AI领域推进国际合作有哪些难点?