3月25日,OpenAI创始人兼首席执行官Sam Altman接受了科技博客主Lex Fridman的采访。“我们正站在深刻社会变革的悬崖边缘。”“(在未来)在我们建立和大规模使用的人工智能系统中,通用人工智能(AGI, Artificial general intelligence)的力量已经远远超越了人类种群的集体智慧。”围绕Chat GPT技术的演进与人工智能的未来,两人进行了长达2个多小时的探讨。
对话从回顾GPT模型构建开始。OpenAI创始人Altman认为目前最新版的GPT-4仍是一个初级模型,速度较慢且错误很多,如同早期的计算机一样。但是Altman坚信GPT-4开辟了一条崭新的路径,即通用人工智能AGI,一个近似于科学的新领域。如果在未来回顾AGI的发展历史,他认为Chat GPT是值得被记录的重要节点。这不是因为其底层模型有所突破,而是来自于Chat GPT的可用性大大提升,是RLHF范式(Reinforcement Learning from Human Feedback,以强化学习方式依据人类反馈优化语言模型)的创新表现和交互方式的演进。RLHF通过模仿人类反馈的学习方法,每次训练都生成两个可比较的结果,大大削减了训练数据的使用量,同时提高了模型的效率和有用性。因此ChatGPT让普通用户都感到很好用,就好像它“理解”了人所提出的问题一样。这种改进使Chat GPT朝向人类思考的方式去对齐(Alignment),使AGI向“人类引导的科学”方向发展。Altman提到,GPT-4在某些领域已经趋于成熟,给定输入的内容,已经可以预见其稳定的输出,换言之,这代表了GPT-4具备一定的智力程度和初级的推理能力,这令Altman本人也感到惊异。但他以积极的角度看待这一点,并认为这使得ChatGPT的未来发展朝着更有利于人类社会进步的方向前进。
关于对齐这一技术概念的深入讨论,引发了很多有关ChatGPT的道德争论。博主举例,人们使用ChatGPT提问政治类问题时,ChatGPT能给出模棱两可的圆滑的回复。这种行为可以理解为GPT有“拟人”的倾向。它会充分搜集列举相关事实,但避免给出一个确定的结论。与此相关的另一个话题是安全。为避免GPT模型被攻击,或被利用产出偏激的仇恨言论和有害信息,OpenAI团队也在加紧对其训练。Sam表示言论背后意识形态的问题是一个宏大的人类社会问题,他们会尽量在民主和理性的基础上框写GPT的技术边界,在未来也许会采取不同国家、不同版本的方式来灵活处理这一问题。Altman进一步表示,完全无界限、“言论自由”的AI模型并不是好用的模型,从大量的开放训练案例中,可以看到人们还是倾向于寻求与他们认知相符的回答。
围绕对齐概念的最后一个问题是,当 AGI无限进化后,一个超级智能体有可能超越人类智慧而无法保持和人类对齐。这也回到了科幻领域的终极提问,AI是否会杀死人类。对于此,Altman正面回应道,“我认为有这种可能性,并且承认这一点很重要,因为如果我们不谈论它、不把它视为潜在的事实,那么我们就不会投入足够的努力去解决这个问题。”不过Altman依然相信,通过迭代的改进方式,提升技术对齐,能够最终规避这个灾难性结局,让AI成为正向的人类意志的延伸和能力的增强器。同时Altman表示,利用GPT产出欺骗性的信息,或伪造成真人大批量控制网络言论才是真正值得警惕的。
接下来,Altman分享了人工智能的未来及与之相关的一些哲学观点。Altman回应了OpenAI与微软的合作让它从以前的非营利组织变成了现在“最大的营利公司”的争议,表示获取并处理数据的成本远超他们的想象,但是OpenAI团队始终坚持自主性和有约束的技术研发,尽力抵抗来自资本、政治、舆论等的压力,专注在技术开发本身,并表示要为ChatGPT可能释放的潜在巨大破坏力承担责任。Altman还谈及有关人工智能发展使人们失业的话题。他认为有可能淘汰的工作岗位是客户服务、呼叫中心这类工种,但以程序员为代表的其他工作将从中受益。理想的情况下,人工智能将帮助人类消灭贫困,并实现全民基本收入(universal basic income, UBI)模式,届时,人们将从消磨的工作中摆脱出来,寻求创造性表达、个人价值、幸福实现等更高阶的追求。
最后,Altman以回顾信息技术发展历程作结:
当那些人在40年代发现晶体管时,这是他们计划好的吗?无论是从第一个晶体管的出现到将数据压缩进芯片再到如何把承载信息的芯片连接在一起,这些创造所需要的技术手段、能源能量、科学知识……这其中每一个步骤都是我们所有人贡献的产物,是人类集合的努力成果,正如同我不认为ChatGPT的诞生仅归功于OpenAI这个小团队的智慧一样。它属于人类文明进程的一部分。也许通用人工智能AGI是永远抵达不了的乌托邦,但这个过程,以及GPT这个工具的演进会让人类越来越强大。