COPU会议纪要2023.04.04
4月4日(周二),陆主席主持召开COPU例会。
重庆天工开物开源基金会田广礼秘书长,信通院云大所开源和软件安全部副主任郭雪,中科院软件所专家梁冠宇等参加会议。
会议初步交换编制我国开源组件供应链的意见,陆主席谈,最近中方将与Brian的OpenSSF团队成员召开视频会议,讨论我国编制开源组件供应链时如何消除可能发生的安全风险交换意见;在美国政府对我方采取脱钩断链破坏供应链的情况下,一方面我方当然将采取建设供应链双循环机制应对,另一方面在我方不放弃建设改造全球大循环供应链条件下应采取什么措施?开会时,除COPU、CSDN、中科院软件所、电子标准院、信通院、华为参加外,请开放原子开源基金会、木兰社区、阿里巴巴参加。
魏永明汇报HVML语言研制进展情况:HVML是描述性语言,在图形界面领域(TUI)可取代C、C++语言。它是一种跨平台、跨端的软件,将统一字符、图形(CLI或TUI)开发;融合Python语言。不久将推出HVML1.0,实行人机共用,期望在桌面、AIoT落地。陆主席表示,全行业要积极支持HVML研发。
本纪要发表陆主席3月30日写的一篇文章《再谈ChatGPT与GPT序列》供大家参考。这篇文章与OpenAI CEO 奥特曼发表的最新谈话高度契合。
GPT序列(含ChatGPT)与人工智能(AI)
(再谈ChatGPT与GPT序列)
今天看到安泱介绍OpenAI CEO 奥特曼(Sam Altman)最新讲话,他非常重视ChatGPT突然出现令他至今还费解的推理能力(他把推理能力作为核心问题提出来了)。我在讨论ChatGPT时一直强调知识逻辑推理能力(逻辑推理是赋予计算机生成人类语言的关键),这是与奥氏后来最新讲话合拍的,于是我一口气看完奥氏全部讲话(他讲到推理能力、大规模对话式语义网络/对话资料库、预训练转换器(Transformer)、预训练迭代、对齐工作、生成能力等),看后觉得:我认为对GPT序列、ChatGPT的评议,基本上与奥氏讲话是符合的,为此我特别高兴!
自从ChatGPT发表以来,在全球形成了议论的高潮。
我们关注的出发点是:全球人工智能专家正在探索从弱人工智能(以机器学习为代表)向基于大规模语义网络(知识图谱)的认知智能(强人工智能的代表之一)的发展途径。OpenAI也参加了这条路径的探索,可是由于未能掌握知识逻辑推理机制,致使这条路径迄今未能打通。有人认为,谈ChatGPT发展提逻辑推理没有必要,哪里有什么知识逻辑推理?!也有人认为,计算机不缺逻辑推理。由于久攻不克推理机制而未能实现认知智能,OpenAI另辟蹊径,他们开始针对解决机器不能识别常识的问题,采用编写字库的方式(直到演变为编写预训练语义网络/库);后来ChatGPT针对生成人类的对话式自然语言系统,采用基于大规模语义网络的预训练转换器(Transformer)方式:与转换器内预制的对话资料(网络/库)+人类反馈的对话(RLHF)进行对比、预训练、对齐、迭代,直至生成人类自然对话语言。这种以进入对话转换器预训练的方式替代逻辑推理,促使机器生成人类自然语言(推理是生成的关键),通过预训练产生迭代,使ChatGPT的弱人工智能越过图灵测试线,推向强人工智能高峰。库容愈大(参数量愈大),可使机器生成的人工智能达到高水平(我曾开玩笑说可达到以假乱真的地步)。
有人猜测,ChatGPT的参数量已达到100万亿,奥氏未作肯定但也未否定。回忆GPT系列的参数量:GPT(2018)1.17亿参数,GPT-2(2019)15亿参数,GPT-3(2020)1750亿参数,如果ChatGPT(2022)达100万亿参数(比GPT-3突增近千倍),似乎也是靠谱的。
据OpenAI发布的《GPT-4技术报告》,GPT-4总体能力还不如人类,但GPT-4专项能力有可能达到或超越人类(在速度效率上超越人类,在智能上不会超越人类);而ChatGPT的能力已超越了人类。
使我能想到而又想不到的是:奥氏这次讲话:“AGI(通用人工智能)所掌控的知识应该是要超过人类科学知识总和的,并且具有创造性,能够推动基础科学发展”;他还讲:“AGI已经出现我们无法解释的推理能力,过分强大的AGI可能杀死人类。”这段话与近来在全球有人议论的“碳基生物(主要指人类)文明是硅基生物(主要指人工智能机器)文明的前置条件”如同一辙!
从人工智能的视角来看,研发ChatGPT和GPT系列的发展,与研发打破机器学习黑盒子实现可解释性人工智能相比,谁是由弱人工智能率先进入强人工智能领域,是颇具竞争性的。
ChatGPT和GPT系列的发展前景是值得我们关注、研究和警惕的!
参会人员:陆首群、梁志辉、田广礼、郭雪、魏永明、谭中意、李萌、邱艺、宁固、张侃、安泱、梁冠宇、鞠东颖