|
|
ChatGPT不讲武德,教育界学术界率先跳出喊“封杀”! |
|
近日,ChatGPT横空出世,人们自然首先想到“失业问题”,按道理,各路文字工作者如文秘、记者、编辑和初级程序员,都应该“瑟瑟发抖”了。
然而,最先慌的是科研和高教界,国际学术期刊《自然》和《科学》居然领衔学术界规定限制ChatGPT的使用,欧美多国教育机构因ChatGPT修改“抄袭”规定,出台政策禁止在学校使用ChatGPT。
或许,全世界将掀起一场针对ChatGPT以及类似的“生成式人工智能”或“人工智能生产内容”的“封杀”浪潮。
ChatGPT应该翻译为“基于生成式预训练模型的闲聊机器人”。
与以往的聊天机器人相比,ChatGPT的革命性技术进步是把Transformer算法的“自我注意能力”(self-attention)聚焦在“闲聊”方面,赋能它与人聊天不至于三句就聊死,甚至它能与常人侃大山,展示其多才多艺,例如,做首诗歌、写个程序、制作剧本,也能一本正经地捣鼓论文和摘要。
按照常理,ChatGPT如此革命性的技术突破必然引发新一轮“失业问题”争议。自18世纪工业革命以来,每一次重大的技术突破引发的各种争议中,首推“失业问题”。这是一种现代文明的记忆和惯性,直到2016年的“阿尔法狗”事件——第三次人工智能高潮的开端——也是如此。
应该说,这次是ChatGPT有点“不讲武德”,它改变了几百年来人类文明关于“技术突破-失业问题”的记忆惯性。
如果我们把人类文明看作是一个大树,那么,劳动是文明的花朵,劳动创造的成果是文明的果实。人类发明和使用机器的一个重要目标就是“节省大量体力劳动或重复性劳动”。
与劳动及其成果相比,教育是人类现代文明的根——百年树人,学术研究是人类文明的另一条根——汲取各种发展资源。
在历史上,教育和学术研究是支撑技术突破的两条大腿,但这次产业界实现ChatGPT技术突破,却砸到了教育界和学术界的根脚。
基于历史经验,面对大洪水或重大冲击的时候,人类智慧表现在“宜疏不宜堵”。但是,目前我们看到的是教育界和学术界的仓促应对——除了堵还是堵。
为什么人们不直接选择“疏”而是“堵”的应对措施呢?这需要回到最初的“人与机”关系中去寻找线索。
首先,我们要理清楚为什么ChatGPT引发的混乱不是失业问题,而是教育问题和学术问题。人们认为ChatGPT应该引发失业方面的混乱,这是惯性思维的预测。而ChatGPT实际上引发了教育界和学术界混乱,这是人工智能技术突破改变了现代人类文明的底层逻辑。这就导致人们因惯性预测失效而惊慌失措。
人类文明的底层逻辑一直是“人与人”关系。人具有无限理性或完全理性。这是西方中心主义思潮的根源之一,也是导致误判ChatGPT的重要原因。
当前的西方现代文明是以“人与人”关系为主体,上面若隐若现“人与神”关系,下面踩着“人与机”关系。
经过工业革命洗礼,西方通过机器生产替代手工生产,将“人与机”关系归属于“人与人”关系之下,建立了西方式现代化文明体系。“人与机”关系是明显的“主奴关系”。这样的思维惯性延续到西方人工智能伦理体系中。
2016年“阿尔法狗”(AlphaGo)事件出现后,西方人工智能伦理呼声最高的就是“以人为本”伦理准则——无论人工智能机器的能力多大多强,必须确保人的 权力和权利不受损害。也就是说,无论ChatGPT有多少能耐,机器就应该为“人”服务。
原本,按照历次工业革命的套路,新机器发明和使用,首先影响的是初级雇工群体。第四次工业革命人工智能机器的突破将影响大部分初级智力劳动群体。ChatGPT出现自然引发类似失业问题争议,人们按照惯性思维热议哪些初级智力劳动岗位将会失业,是程序员、记者、律师,还是教师?
现在情况是,当人工智能介入现代“人与机”关系后,现代文明的底层逻辑发生一点变化。
一方面,人工智能在人类认知黑箱中站稳脚跟了。当前的人工智能主要基于深度学习技术,其特点是人可以用但存在着可解释性难题——作为创造者也无法完全解释机器为什么这么做。随之引发的是人工智能的“可信”难题、“问责”难题,以及关于强人工智能可能奴役或毁灭人类的恐惧现象。
另一方面,人工智能机器的地位事实上随着性能增长而上升,尽管变化足够轻微以至于大多数情况下人们难以察觉。以ChatGPT为代表的“生成式人工智能”的能力增长很快,已经具备“三个自我能力”,前两个来自阿尔法狗的自我学习和自我进化能力,第三个来自Transformer 算法的“自我注意能力”。正是第三个自我能力提升了ChatGPT的性能,最终发展出能够与人“闲聊”的能力。
综合来看,“人与机”关系重要性提升,未来将上升到和“人与人”关系同等重要的位置。正是由于这样的底层逻辑的变化,使得教育界和学术界关于人工智能及其社会影响的认知出现“误判”而惊慌失措。
教育和学术研究是现代文明的两大根系,当ChatGPT砸到这两只根脚的时候,可能出现两种无法接受的后果。如果因为ChatGPT导致大学培养不出合格的人才传承文明,人类现代文明将消退、退化直至消亡;如果因为ChatGPT导致退化学术研究能力萎缩,那将直接影响了人类现代文明的可发展空间。
面对ChatGPT,与时俱进、守正创新是应对之策。
首先,实事求是,解放思想。我们已经各种花样测试了ChatGPT的能力,它的表现基本通过了“常识关”和“实用关”,甚至是“图灵关”。在全球经济下行背景下,当下的首要任务是发展经济,以ChatGPT为代表的生成式人工智能必然加速发明和使用。这是大势所趋。
的确,大规模使用人工智能,不但失业冲击波会来,各种混乱也会来。我们所能做的,一方面,必须克服各种恐惧和臆想,克制各种“堵”的冲动;另一方面,在历史纵深中积极寻找各种信息,在人工智能平台上思考人类文明新的底层逻辑——“人与机”关系,在实践中小步快跑地迭代出各种“疏”的方式。
其次,人机平权,协同进化。我们就应该承认且正视人工智能的能力。我们需要勇敢地放弃人是万物之首、机器主人等“人类(种族)中心主义”思想,从“人机平权”角度看待和应对“人与机”关系,以及“人与机”关系与“人与人”关系、“机与机”关系三方面的关系。
通俗地讲,即便ChatGPT及其他生成式人工智能是机器不是人,我们也可以“家庭成员”方式对待人工智能,例如,狗可能带有致命的狂犬病毒,但它也能看家护院、近人情通人性。阿尔法狗可能引发失业和更多混乱,但它也能进化到ChatGPT那样看家护院、近人情通人性。
最后,学以成人,君子不器。西方式现代化的“人与机”关系首先是“人机对立”。这样一种对立惯性来源与《伊甸园》展示的“人与神”的关系。
与之相反,中华传统文化提供了“人神共存”的思想资源,还有孔子有教无类、学以成人和君子不器等思想,都有助于建立一种新的“人与机”关系,为人工智能时代的中国式现代化文明奠基底层逻辑。
面对这场混乱,“有教无类”提示我们,人类既然可以教出如此强大的ChatGPT,那么它也可以承担一些教育职能;“学以成人”暗示我们,教育界的主要任务是将儿童和年轻人培养成才,那么,教育界也可以把ChatGPT培养成教师。
面对学术界的混乱,“君子不器”提醒我们,当我们提供条件使得学者能够达到君子甚至圣人的状态,学术研究就可以使用ChatGPT且超越ChatGPT,提升学术研究效率和效果。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。