COPU会议纪要2023.08.02
8月2日(周三)陆主席主持召开COPU例会。
一、听取了中兴通讯公司开源负责人、LFAI&Data基金会董事会主席孟伟关于中兴通讯和LFAI&Data基金会发展情况的汇报,讨论中兴在遭遇挫折后如何站起来?如何发展?以及LFAI&Data基金会的发展情况;
二、会议听取了IBM(中国)程海旭博士汇报Brad Topol开发推广WatsonX基础模型的情况,讨论如何建模、训练、部署、治理问题;
三、会议听取了(铜豌豆创建人)肖盛文创建和维护基于Debian的中文Linux操作系统的汇报,讨论他们对龙芯 loong64,risc-v等企业和业务的支持情况;
四、本次会议讨论回答几个人最近常问关于大模型发展的问题。
1)ChatGPT要不要开源?
有人举出奥特曼在回答张宏江的提问中谈到“开源目前不是最佳路径”,便认为ChatGPT不要开源。这样的理解是不对的,奥特曼不是要否定开源,只是目前出于某种原因暂时不便引入开源。OpenAI公司本来决定5月15日将ChatGPT开源,后来奥特曼也说,我们已经开放了一些模型测试,但后来为何要收缩开源呢?其原因是ChatGPT发展很快,已进入强大的通用人工智能(AGI)领域,这时ChatGPT可能超越人类,如果将ChatGPT的研究开源,可能被黑客利用来攻击人类(在“COPU圆桌会议”上几位开源大师均指出这点),因此奥特曼把研究GPT的重点放在安全问题上,收缩了GPT-5的研究进度和暂时中止开源的引进。在“第18届COPU圆桌会议”上几位开源大师均指出,为防止GPT的研究成果被黑客窃取用来攻击人类,不应收缩开源,反而应在ChatGPT各个环节上均实行开源、透明、开源的介入可以使ChatGPT变得更安全,他们不同意奥氏刹车不前,他们还认为,如果说人工智能超越人类可能给人类带来不安全后果,真正能够应对这项挑战提出解决方案的应该是开源社区。
2)目前GPT的研究重点是什么?
这个问题奥特曼也在与张宏江的谈话中做出了回答:“我们必须把安全作为未来研究中的重要部分”。这个问题现在具有紧迫性。关乎人类的安全风险问题,奥特曼、斯特拉都说:人工智能超越人类,甚至可能出现杀死人类的安全问题,除此之外,ChatGPT给人类带来危险、负面的东西,如漏洞、偏见,以及安全和道德问题,也属于对人类的安全挑战范畴。除了应对安全挑战外,政府与人工智能企业有必要签订“安全、有保障、可信任的”协议,企业要自愿承诺负责地进行人工智能创新的承诺。
3)大模型的研究方向是什么?
在“第18届COPU圆桌会议”上找出了4条研究-路径:①奥特曼提出并修正的研究方向(见第18届COPU园桌会议纪要)②Jim Zemlin、 Brian Behlendorf等开源大师提出的将开源充分介入GPT的研究方向(见第18届COPU园桌会议纪要)③Hiton、Yann Le Cun等AI大师提出的GPT的研究方向,特别是Yann Le Cun支持自定义Llama-2开源许可证,以实现开源、免费、可商用的大模型。④吴朝晖院士、英伟达(NVIDIA)CEO黄仁勋(最近又加入一个AI专家李飞飞)提出的具身(embodiment)智能的概念,要在GPT大模型发展上加上具身的研究路径。
4)大模型突然“涌现”的推理能力是否是大模型成长的关键?
大模型ChatGPT发展起步是基于深度学习的。奥特曼说,ChatGPT成长的关键是突然“涌现”出来无法解释的推理能力,而推理能力是赋予机器生成自然语言的关键。其实当ChatGPT大模型对话式语义参数(+预训练方式)积累到相当程度时(约2000亿左右或以上参数),依靠深度学习的数据统计工具:实际的统计值不断接近理想中的推理逻辑目标值时,奇迹就突然出现了!
参会人员:陆首群、田忠、宋可为、程海旭、孟伟、谭中意、安泱、张侃、何苗、王珊、袁薇、刘巍巍、鞠东颖、陈伟(线上)、肖盛文(线上)、隆云滔(线上)