远见丨对话人类“文理工”科专家 怎样接招ChatGPEBET易博真人平台T?

  新闻资讯     |      2023-09-03 22:39

  近一段时间,ChatGPT引发全民讨论。目前,ChatGPT在编程、考试、面试和数据分析等场景展现出惊人能力——持续开源训练,也让技术未来的进化速度越来越快——ChatGPT对人类“文理工”学科,带来哪些影响和挑战?身在其中,普通人该怎么办。面对无可回避的浪潮,人类如何“反内卷”?未来,对高级人工智能如何管理和治理?中央广播电视总台经济之声《远见》对话——知名出版人、中信出版社执行总编辑方希;清华大学人工智能国际治理研究院副院长梁正。

  思远:两位是所在“文、理工”领域的中坚力量。最近,方总在跟国内外作者聊AIGC主题的图书出版,梁院长在研究AIGC的伦理赋权问题。你们研究后,核心结论是什么?作为个人,慌不慌?

  方希:慌也没有用啊。谁在用这人工智能取代你?是你的老板、你的公司吗?还是通过什么样的方式?我也不认为它能取代阅读和出版,并不是因为我是做出版的,就说“出版永恒”。GPT有它的优势,比如总结能力等,但其准确度和大型底层数据的质量相关。

  图书是所有知识产品中,最典型的在生产过程中不断校准的产品,也许书有错误、会过时。但它是最稳定的持续记录人类文明成果的产品,综合平均数据是非常优质的。

  短期看,ChatGPT可能会对“创新”的基础,比如“版权制度”产生巨大挑战,在高科技、思想创新领域,形成默默无声的高级抄袭。比如你皓首穷经地写作,有了重要突破,但马上就被投喂到数据中,你没有任何报酬和收益。这对于创新者、创作者有很大打击。

  思远:说到底,人工智能开始颠覆传统的信息获取渠道和方式。也许从互联网兴起的那一刻,就开始了。梁院长,您会慌吗?

  梁正:ChatGPT最开始让我们这些做研究的人有点慌,甚至感觉将来可能工作可以由它来做了。但更深入了解后,我们却很兴奋。

  每一次技术进步,对我们都是机会,代码也可以视为一种工程。技术可以把我们从重复、繁重的一些工作中解放出来。比如查文献、整理材料,甚至数据分析,它确实好用。我们科研圈子都觉得,这是大势所趋,将来一定要去用它。

  梁正:对的,GPT在语言、文生图等方面的大模型。这种大规模预训练模型 ,国内也有很多,在多模态数据的处理方面,取得非常大进步。所以,这是整个产业发展大势所趋,从过去的“大练模型”到“练大模型”阶段,通用接口一旦出现,就可以“赋能”千行百业。

  思远:各行业的人都来用它、训练它,形成规模化的“训练生态”。ChatGPT的试水应用非常广泛,像法律咨询、公文和论文写作、HR招聘,还有基础编程,几乎是涵盖了“文理工”全面学科。两位从各自所在“文理工”角度怎么看?它对哪一行的实际影响更大?

  方希:我确实跟不同行业的朋友聊过这个话题。大家更关注的不是眼下,而是更长时间对行业、社会结构的影响,尤其是对教育的影响,无论“文理工”。人工智能产生了大量“知识外挂”,它让“任务型教育”成为可能,问题是谁来设定任务的方向?怎么选择?任务完成后是否会带来其他的恶化结果?由此倒推,基础教育的内容是否得到大量改造?

  第二,对职业教育的影响。我们从出版行业来看,比如一个新入行的编辑,首先要经过两年非常基础的规范性训练,包括置词、标点和验证论据的正确性——是否有这样的论文发表?是否有这样的实验发生?GPT人工智能做基础工作一定比初学者好得多,那么编辑失去规范、反复训练后,是否有足够的能力去应付复杂而高级的问题?目前,这没有特别清晰的结论,但它是个比较清晰的问题。

  思远:完全理解。文字工作者也好,语言工作者也好,要想学好“武功”,“练内功、扎马步”必不可少。但AI如果做得更好、更快、更标准,且不知疲倦,人类是否还有必要学“基本功”?如果不学,“底盘”不扎实怎么办?这是一个待解的悖论。

  思远:不光是出版行业,包括我们媒体在内的“文科”都要面临这样的问题。梁院长怎么看,理工科受到的冲击更大,还是更小?

  梁正:从学科的知识体系来看,其实ChatGPT给我们提出了很多新问题。但“自动化编程”不是今天才出现的。理工科里,“理科”是研究科学发现的,为什么我们还要给中学生讲“三大定律”?因为科学发现,是基于对现实世界的“观察”“假设”,然后去验证。

  ChatGPT现在能力强,但1+1=2做不好,因为它不是基于推理,而是基于数据的概率统计、分析得到结果。现在,我们能做的是利用它的能力,把现有的科学发现更有效率地整理、积累,用于教育,提高效率。就像有了计算器以后,我们还是要学加减法。科学的发现,还是要靠“人”的。

  思远:总结起来,AIGC对“文科”的影响体现在对“文科职业素养”的教育选择和搭建上;对“理工科”而言,会受到一定程度影响,但如果人类善于与机器“共舞”,最终对世界的“发现”主动权,还在人类自己手上。

  方希:未来怎么去和发达的人工智能相处,我们的很多科学图书作者、专家有完全相反的看法。比如“贝叶斯网络”的发明者朱迪亚·珀尔,乐观地认为人工智能是新的物种,比人类更有道德准则。但埃隆-马斯克认为,人工智能是对人类文明的威胁。

  我个人觉得,悲观可能是深刻的,但没太大用处。所以,我对年轻同事的要求——AI技术出来,就去用,看它能够帮助到什么程度。既不要惊讶于AI的速度和效率,也不要嘲笑它偶尔出现的错误,这是一条根本回不去的路,人类只能选择“协同进化”。

  梁正:我们和同行交流后觉得,大量工作AI是完全替代不了的。科研工作中,我们要遵循从观察想象、假设提出、实验验证、数据分析,这样一整套基础工作。现在,GPT主要是给我们做科研的信息整理和搜集,无法去实验验证。因为拿它做出来的一些专业(实验)结果,我们一看,是完全错误的。

  很多知识发现,是没办法被结构化的,要考虑到人类的悟性。比如,我们对“暗物质”的认识还非常浅。人类的思维空间,无论是左脑,还是负责“想象力和创造力”的右脑,都远远没开发出来。AIGC出现了,可以让人类解放更多脑力和精力,才会有更多发明创造、物质文明进步和思想文化繁荣。

  思远:有道理。把人的精力从烦琐劳动中节省出来,让人类从更高的维度,去发现世界的另一面。最后,说说人工智能的治理,怎么去管住它也很重要。方总,您怎么看待对AIGC内容本身的安全性管理?

  方希:数据的质量,决定了内容输出的质量。令人担心的可能不是现在,而是在于它不断学习后的“真伪难辨”,尤其是每个人在自己完全陌生的领域。

  人类有一种“本能”——把自己第一次听到的东西,当成真理。比如有些辩论,其实人是在捍卫自己第一次听到的信息。这就是为什么我们在大家庭的微信群中,总看到老人们传递一些明显错误的信息。所以,“信息素养”成为人在互联网上最重要的素养之一。

  未来,与AIGC对话的语境,不该在自然环境中形成,也应该包括政府、法律、社会治理上的深度介入。“泥沙俱下”是必然经历的阶段,但“整齐划一”,比“泥沙俱下”更危险。它意味着,知识输出的垄断。我们需要回到最基础的层面——信念、健康和美,做好这三项,人的自由意志可能才有坚实底座。

  思远:非常同意。一方面,要打破AIGC内容的“绝对垄断”;另一方面,人类要克服“思维惯性”,我们要尊重事实本身的正确性,也要让机器智能的表达,在一定规则下,更自由。梁院长,从人工智能的伦理和治理方面,您怎么看?

  梁正:不仅仅是人工智能,对所有的新兴技术,包括:基因编辑技术、量子计算等,都存在管理、治理问题。新兴技术出现时,如果用“一刀切”的方式,反倒是成本更高的。

  但它也确实带来短期的负面影响,比如隐私、内容造假等负面风险。对新兴技术的治理,要有社会的“建构”过程,伦理价值观也不是一成不变的——最早机器刚出现时,很多人类也是反对的,甚至去打砸机器,但最终大家会接受它。

  经过社会讨论的过程,建立起相应的法规约束。比如,当年机器替代劳动,为了保护劳动者,建立了8小时工作制和全面的社会劳动保障制度。所以,不要去恐惧它,再强的人工智能出现,说到底,还是怎么去与之相处的问题。

  思远:无论是人类还是人工智能,都需要道德、伦理、法律的框架约束和保护。所以,一方面要给人工智能空间,更多耐心和“进化”空间,以及必要的校正;另一方面,更要保护人类自身的成长和进化。

  转载申请事宜以及报告非法侵权行为,请联系我们专题更多远见丨对话人类“文理工”科专家 怎样接招ChatGPT?

  近一段时间,ChatGPT引发全民讨论。目前,ChatGPT在编程、考试、面试和数据分析等场景展现出惊人能力——持续开源训练,也让技术未来的进化速度越来越快——ChatGPT对人类“文理工”学科,带来哪些影响和挑战?身在其中,普通人该怎么办。EBET易博官网