当前位置: 查字典论文网 >> 马斯克资助的AI安全项目正在做什么?

马斯克资助的AI安全项目正在做什么?

格式:DOC 上传日期:2023-08-07 17:00:49
马斯克资助的AI安全项目正在做什么?
时间:2023-08-07 17:00:49     小编:

人工智能是一把双刃剑。如何让它只做对人类有益的事却不至于失控,拥有豪华科学顾问团队的生命未来研究所正未雨绸缪。

美国麻省理工学院教授、宇宙学家麦克斯・泰格马克将致力于降低人类存在性风险的生命未来研究所官网Logo设计成一棵树是有意味的。这棵与众不同的树一边枝繁叶茂,另一边只剩下枯枝,似乎在暗示技术能给人类带来前所未有的繁盛,但也会让人类走向自我毁灭。

麦克斯是生命未来研究所(Future of Life Institute,简称FLI)的联合创始人之一。如名所示,这是一个关注人类未来的组织,关注基因、核以及人工智能等各种现代技术的发展会为人类带来怎样的前景。

FLI官网上列出的一长串科学顾问委员会成员名单,可谓大牌云集。这可能是由世界上最聪明、最具影响力的一群人组成的顾问团。

他们中有行事天马行空的特斯拉创始人埃隆・马斯克,还有身兼导演、演员、编剧等身份,多次获得艾美奖和金球奖的艾伦・艾尔达,以及内地很多观众熟悉的影星摩根・弗里曼。但更多的还是学术圈名人,著名物理学家史蒂夫・霍金领衔一众来自哈佛、牛津、剑桥、麻省理工等院校的精英们,涉及基因、大脑、人工智能、物理、宇宙、数字经济等各个领域。

他们中的不少人曾在不同场合向媒体表达过对人工智能的担忧。去年12月,霍金接受BBC采访时称全面发展的人工智能可能成为人类的终结者,他主要担心的是那些达到或者超越人类的人工智能―“他们会快速地发展和更新换代,但人类受制于缓慢的生物进化,无法与之抗衡,终将被取代”。马斯克也有过“发展人工智能就像是召唤魔鬼”的言论,他说:“就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但最终没有一个成功的。”

名人的担忧体现了时下这个社会流行且互相冲突的潮流:过去5年,人工智能得以快速发展,很多5年前或者多年前想象的事情现在已经发生了,从活跃在各种制造业工厂的机器人到大脑原型芯片TrueNorth,再到Siri、微软小冰等,人工智能已经陆续走进并改变着人们的生活,但机器越来越像人的同时也让它们的创造者深陷恐惧。

2014年3月,在麦克斯的倡导下,Skype的创始人之一扬・塔里安、哈佛大学统计学在读博士维克托维亚・克拉克弗纳、加州大学圣克鲁兹分校理论宇宙学教授安东尼・阿吉雷,以及拥有教育和哲学背景的波士顿大学在读博士米哈埃拉・契塔共同成立了FLI。

依托于波士顿地区丰富的高校资源,FLI吸引了来自各个高校的志愿者。志愿者和创始人们经常在一起席地而坐进行头脑风暴,讨论项目、组织活动。

“出于对人类未来的关心,来自不同领域的我们聚在了一起。不同的专业背景和兴趣能让我们更好地完成使命。”维克托维亚说。

彼时在商业上已经颇有成就的扬・塔里安为初创的机构注入了发展资金。而真正让媒体和公众关注到这个组织的,则是埃隆・马斯克。今年年初,马斯克向FLI提供了1000万美元的资助,用于AI安全的研究。 “我们应该主动出击”

去年10月,马斯克在麻省理工学院航空航天系的百年研讨会上与学生们交流,聊的话题很“未来”,计算机科学、人工智能、太空探索,还有火星殖民计划。有人问及他对人工智能的看法,这位科技狂人说:“我觉得我们应该非常小心人工智能。或许人工智能是我们所面临的最大的存在性威胁。我越来越倾向于应该有一些规范和监督,国家层面或者是国际层面的,从而保证我们不会做蠢事。”

被很多媒体引用的“召唤魔鬼”的言论就出自这场交流。麦克斯说他很欣赏马斯克的一个地方,就是他不仅说,而且真的会去做。

“马斯克关注人工智能的安全问题已经有一段时间了,这也促使他加入了CSER (存在风险研究中心)和FLI。”维克托维亚说,“今年年初我们组织了一场AI会议,达成了很多研究方向的共识,马斯克希望让这些研究能够落地。”

在宣布资助不久后的一次对话中,麦克斯问马斯克:“为什么对人类的未来这么有兴趣?”先后创立了特斯拉、SpaceX的马斯克说这跟他小时候喜欢看科幻小说和哲学书籍有关,让他意识到,“我们应该做的是让生命在未来延续,尤其是有意识的生命。这样我们才能够更好地去理解宇宙的本质,达到更高的文明层次”。

在与麦克斯的对话中,马斯克认为,未来科技将会从五个层面对人类社会产生巨大影响―让生命多星球化、能源的可持续生产和使用、互联网的持续发展、对人类基因的重编码以及人工智能。马斯克创办的特斯拉和SpaceX,前者专注于新能源的使用,减少人类交通对石油类能源的依赖,后者作为一家私营太空运输公司,旨在为人类进入太空铺路。

在对人工智能的态度上,马斯克的立场显得矛盾。他认为,AI最大的好处在于能够使人们从很多无聊、繁重的工作和测试中解放出来,并突破一些人类智慧尚未解决和难以控制的问题,比如治疗癌症、老年疾病等。

同时,他也认为,AI与基因技术一样是“双面的”,可能带来混乱。“最好的方式是避免AI的负面影响出现,而不是等它出现之后再做出反应。有些AI的潜在威胁是很严重的。当风险很大的时候,我们应该主动出击而不是被动反应。”

“当时做特斯拉和SpaceX,成功的几率可能只有两成。”在马斯克看来,二者对人类社会都是一种长期的优化,不宜急功近利。同样的,在资助FLI做人工智能安全研究这件事上,他也看得很长远,对钱的问题并不太计较,“并不是每个人都需要做这些事情,只是确实需要有人去做。如果我看到这些领域没有人在做,(就会想)也许我可以在这些事情上做点什么。” 一切都是为了有益于人类

Skype的创始人扬・塔里安曾打过一个比方,“发展先进的人工智能就像发射火箭,第一要务是使加速度达到最大,一旦它开始增速的时候,就得去关注控制与引导的问题。”

FLI的创始人麦克斯并不是AI的反对派,不认为应该减缓人工智能的发展,但他希望调整人工智能的目标。这位来自麻省理工学院的教授告诉《博客天下》,发展人工智能的目标不应该是让机器更加聪明更加智能,而是让它们更加忠诚且更有益于人类。

“做生物的人,他们并不想做生物武器,他们只想去做药品之类的对人类有益的事情;做化学的一样,他们不希望去研发化学武器,他们只想创造新的材料去帮助人类。对人工智能来说也是一样的,研发他们的人在最开始就应该想清楚这些东西将会走向哪里。”麦克斯说。所以,FLI对参选项目的一个要求就是,“如何让AI更加有益于人类而不是简单地变得更加能干。”

在大方向的指引下,还有具体的研究重点。FLI根据前期调研以及会议成果发布了一份文件,详细介绍了AI安全研究的短期和长期研究重点。短期研究重点关注那些已经初步显现的AI的影响与威胁,长期研究重点则关注超级人工智能是否能实现。

在得到马斯克的资助后,FLI开始了针对AI未来研究项目的征集与选拔。此前麦克斯和FLI的另一位创始人安东尼・阿吉雷曾经运营过物理学领域的一个类似机构,他们对机构运营和项目管理有一定的经验,因此他们也为项目订立了一系列科学严谨的审批流程―在收到各个研究团队的提案后,FLI将组织相应领域内公认的学者教授或者业内人士组成专家评审团,对项目进行同行评审。当然,FLI会保证评审者和项目申请者互相不知道对方的信息。

评审标准包括项目主要研究者及其团队的资格审查,项目本身的价值、科学严谨性和创新性,在给定时间框架内研究的可行性等。最终37个项目通过了审核。

之后,FLI与硅谷社区基金会下属的一个捐赠人指导基金(DAF)合作确定每个项目分配多少钱。根据项目承接团队要求的资助金额,结合项目的影响力,DAF最终确定下分配的项目资金,并且后期负责与项目承担方在经费上的对接。

这些项目将获得为期3年的资助,大部分项目从今年9月份开始,项目承担者每年将给FLI提交报告汇报,FLI将组织相应的审核。 比失业更可怕的是失去尊严

牛津大学的尼克・博斯特罗姆教授拿到了FLI的150万美元的最高资助。

这笔经费将用于筹建人工智能战略研究中心。这一中心将由牛津大学和剑桥大学联合成立,专注于为政府、行业领导者等提供政策研究支持,从而降低人工智能发展的风险,使其效益最大化。

尼克是牛津大学的哲学教授,专注于存在风险和人类未来的研究,也是畅销书《超级智能:路径、危险、策略》一书的作者。尼克认为,人们有理由相信不受监管与约束的人工智能会带来相当大的危险,一方面是因为技术本身有了前所未有的能力,另一方面是因为政府的不负责任。像核裂变等高科技,政策走在了技术发展之后,使得这项技术的发展伴随着毁灭性的风险。为了避免这种状况发生,人工智能安全战略的研究必须走在超越人类的实用人工智能广泛实行之前。尼克希望战略研究中心的成果能够为全世界的政府和从事AI行业的人所用。

尼克本人更加关注AI的长期发展,包括超级人工智能一类的议题,但是人工智能战略研究中心建成后也会关注AI造成的短期问题,例如失业问题。对这一问题,他个人的看法比较乐观:“我个人觉得到目前为止,我们还没有看到人工智能技术的应用与早前的技术进步浪潮带来的改变有什么不同―一些工作会被淘汰,但新的工作也会出现。”

但并非所有人都这么乐观。“我认为未来20年间,人工智能带来的失业问题是最令人担忧的。”FIL的项目承担者之一,斯坦福大学博士迈克尔・韦伯告诉《博客天下》,“不管你是一个拿着高收入的律师,还是流水线上生产iPad的普通工人,当你的雇主发现使用机器或者软件成本更低时,你都有可能失业。”

迈克尔说,人类在享受人工智能带来的经济增长和生活质量改善的同时,更应该去关注社会中每个人的幸福和尊严,尤其是可能被技术进步夺去工作的人。他的研究课题是“人工智能经济的优化过渡”,他将依据相关经济理论,针对不同情境下的AI发展,探索各种工种以及经济将会受到的影响,进而分析不同的税收、福利、教育、创新等政策会带来怎样的结果。“只有我们更清晰地了解这些状况后,政府以及个人才会做出更加明智的决定。”

与AI影响下的失业以及经济优化这些贴近现实的研究相比,对超级人工智能的研究更为理论。这个项目由旨在为人类对抗威胁提供解决方案的全球风险研究所承接。

完成理论项目并不比解决现实问题更容易。全球风险研究所的执行理事赛斯・鲍姆说:“项目研究最大的困难在于这是一项根本不存在的技术,甚至未来是否会出现也是问题。”

赛斯和他的团队将根据既有的信息,利用故障树形图和影响图等风险决策分析方面的方法构建模型,试图模拟出超级人工智能的发展路径以及不同的决策对这些路径的影响。 正确理解人类意图很重要

现阶段,麦克斯最担心的是以纯粹的“目标导向”来发展人工智能的趋势。

“机器没有邪恶或者善良之分。机器只会更加智能,变得更‘自信’,它确信能够实现目标。如果你有一个非常‘自信’而且比你更有能力的机器,它去完成它的一个目标任务时,你没有办法去阻止它。”他说。类似的场景在热播美剧《硅谷》中有所呈现―一辆无人驾驶的汽车按照既定程序开到了一个孤岛上,坐在车里的Jared完全无法阻止已经启动了程序的汽车,被迫困在车里长达4天多。

所以,如何让机器或者说人工智能不仅仅是去实现目标,而是去理解人们的真实想法,也是FLI资助很多项目的研究重点。

杜克大学的一个研究团队就尝试综合运用计算机科学、哲学和心理学的方法,去建立一个能够在现实场景中进行合理道德判断和决策的人工智能系统,类似于权利(比如人类才有的隐私权)、角色(比如作为一个家庭成员)、过去的行为(比如承诺)、动机与目的等影响道德判断的因素都会被AI系统加入进去。

尼克说自己无法精确回答自己的项目研究究竟能带来什么。对于这些人类未知之事的研究,他认为,重要的是保持好的心态,“这是一个非常新的领域。带着开放的心态不断地去靠近、探索是很重要的。或许对外行人来说,他们很难去评估这些研究。而我们关注的点在于不断地迎接我们所面临的知识挑战,取得实际意义上的进步,而非迎合某些人的好奇心。”

尼克觉得,现在很多名人被喜欢冲突的媒体塑造成了“AI反对者”,“对人工智能未来的发展而言,持极端看法是非常有害的。”事实上,对AI保持警惕的马斯克也投资了一家发展人工智能的公司DeepMind和一家专注于让机器人能像人一样思考的公司Vicarious。

麦克斯认为,“我们并不想减缓一般的AI研究,只是会加速关于AI安全的研究。我们像是在跟AI所带来的风险竞赛。目前还没有什么事情在发生,但有可能一下子事情就发生了。我们希望开发人工智能的人也去思考下这些问题。”

在FIL官网的在线问答中,一位网友发问:“当达到甚至超越人类水平的人工智能出现的时候,人类还能控制世界吗?”FIL回复说,如果人类不再是这个星球上最聪明的物种,很难讲人类是否还能重新控制它。现在FIL正在借助“钢铁侠”的资本和世界上最强大的大脑来应对未来人类可能面临的AI风险。?

全文阅读已结束,如果需要下载本文请点击

下载此文档

相关推荐 更多