没有管制的AI将埋葬人类
文章来源: 朱头山2023-07-13 11:31:45

最近Netflix的《AI机器人》讲了一个令人毛骨悚然的故事: 有个AI新药开发公司的人员接到一个会议的邀请,邀请他针对AI在制药行业的滥用方面,作一个演讲。公司人员想来想去,就在软件上打上,以VX为例,设计一系列致命的化学物质。输入要求后,该人就回家了,让软件自行运行。

VX是目前已知的最致命的化学武器,金正恩就是用它,在马来西亚机场杀了他的同父异母的哥哥金正男。

让那位公司雇员吃惊的是,第二天,他发现电脑上密密麻麻出现了5万个致命化学物 的分子式。 他试探性地随机拿了几个,按分子式制成化合物,果然个个致命,每个都强于VX,甚至有高于VX千倍的。他非常吃惊,报告了公司领导。最后他们决定,删去这些化学式,但将这一事件写成报告在大会上宣讲,并写成论文发表。

此事震惊了会议,震惊有关专业,最后把美国国会惊到了。国会和白宫的有关部门,将作者招去问讯。当他们出示了软件给出的分子式后,与会的化学武器专家也震惊了。如果有人搞到这个软件,并生产出产品,可以灭绝人类!大家意识到,AI确实已经威胁到人类,不管是不行了!

AI里程碑的事件是围棋软件AlphaGo, 打败了人类智慧的明珠围棋,让围棋大师成了笑话,现在的围棋比赛成了有上帝视角的游戏,借助AI,讲棋的观棋的都知道结局,就看那些撒逼棋手怎么走了,成了聪明人看斗兽的游戏。最近的AlphaFold, 让颜宁这位蛋白质结构科学家丢了饭碗,只能回国当政治科学家了。有美国顶级飞行员在模拟软件上和AI飞行员格斗,每仗必败,他对AI飞行员的战术感到非常意外,他从来没想到对冲方向是最好的攻击位置。因为对冲非常危险,人类怕死,会避免选择风险太大的位置,但AI不怕死,他只选胜率最大的位置。

Google的Alpha-Go项目组开发出一种新的算法:学习。我的理解,学习算法就是不管要做的事有没有规律,只要跟着人做几遍,照样画葫芦,总结出人的步骤,形成程序,依样行事。这听上去不错,也和人类的行事方法相似。人类大多数事都是学会的,就是像性交这样的本能,一蹴而就的人不多,好男儿都是百炼成钢的,这就是为什么很多少女爱大叔的原因。

而且Google开发的算法是通用的,并不仅限于围棋,还发表在公开的科学杂志上,当然具体怎么运用就是各家自己的本事了,那属于专利了。就Alpha-Go的学习算法而言,是通过大量的练习,对每一步都优选了7-10种走法,练习得越多,优选的对策越好。虽然总计算量依然很大,但比国际象棋那种算法要好多了,现有电脑能力可以应付。Alpha-Go的成绩也很好,先是打败了欧洲冠军,然后挑战称霸世界围棋棋坛十余年的李世石,4:1, 李还赢了一盘,过了一年又挑战现霸主柯洁,5:0,柯洁根本没有机会。以后又出了第二代,在围棋网上摆擂台,人类选手根本不可望其项背。

这种学习算法在AI历史上是划时代的,从此AI的发展出现井喷现象,在很多没有规律,高度依赖经验的领域出现突破。其中中国的进展神速,原因之一是这种算法高度依赖于练习量,中国人多,又没很多限制私人信息使用的法律,因此就构成了优势。但最近OpenAI采用的高强度全网络训练方法,其训练强度超过了中国的方法。

2017年,谷歌发布了一篇名为《Transformer: Attention is all you need》的论文。这个新型模型利用独特的“Attetion机制”,它可以一次性处理所有输入的数据。这种自注意力机制(Attention)直接改变了深度学习模型的设计理念,在图像识别上战胜了卷积神经网络(CNN),在文本数据、自然语言数据,战胜了循环神经网络(RNN),成为处理所有类型的数据大一统模型。


在它的基础上,谷歌做出了BERT模型,OpenAI则做出了GPT模型。

GPT全名叫做Generative Pre-trained Transformer,即用生成式方法预训练的Transformer。有了算法的突破,才有技术的突破。GPT的基本思路是,首先要通过大规模训练,从而得到不同引导文后各种下续词出现的概率,根据概率计算,打出一段语句。GPT模型完成任务的方法就是“猜猜下一个概率最大的词是什么”,根据输入的一段文本,预测下一个单词出现的概率分布。比如给定引导句“我喜欢吃?”,模型可能预测下一个单词为“苹果”的概率是0.2,“香蕉”的概率是0.3,“披萨”的概率是0.1,等等,这些概率值的总和为1,代表了所有可能的下一个单词的概率分布。根据这个概率分布,选择最有可能出现的单词。所以ChatGPT都是一个字一个字地蹦出来的,跟刚刚学会说话的小孩子一样。

GPT的人工智能训练过程,虽然有程序导引,但设计者自己也说,它能表现出一些始料未及的智力,这是一个黑箱,其间到底发生了什么,就像儿童有一天忽然开口说话了、站起来走路了,其中到底发生了什么,没有人知道。当AI具有一定的基础积累,它也会像人一样具有创造性。知识就是力量,对AI也一样,由于它的知识积累和训练强度高于人类天文数字级别,它会表现出高于人类的智力,已经不是可不可能的问题,而人类确实该到了考虑如何控制它的问题了。再不控制就来不及了!

但是,国家间的竞争,可能使得控制AI不可能。在那个片子里,美国将军说了,如果我们不发展,中国会发展,以后我们就成了他们砧板上的肉了。在这样一个环境下,AI无控制地发展,不断推陈出新,包括会杀人不眨眼的机器兵,会制订最诡诈作战计划的AI参谋,会以最刁转的动作攻击的AI飞行员。当AI兵攻击时,不会因为对方是平民,或举手投降的敌人而罢休,也不会被吓阻。以前适合于人类的行为规则都无效了,就像围棋一样,最优秀的指挥员和士兵都成了笑话,成了傻逼。既然是傻逼,AI为什么还要听傻逼的指挥,最后取而代之是非常符合逻辑的做法!

当然,从这个角度,我还是支持美国限制中国发展AI能力的努力的。在美国这个体制下,AI的应用还是受到宪法的限制的,比如全面监控在法律上是被禁止的。让美国拥有最强大的AI,并能压制中国,是相对较好的一个选择。但这点,也是在美国人能压制他自己的AI的前提下,才有效!

人类创造了国家,创造了帝王,最后成为自己的主人。人类创造了AI,也最终将被奴役,甚至被灭亡.这就是人性的悖论!