2018年8月
人工通用智能(AGI)的军备竞赛如果导致不友好的AGI,将对人类有害甚至构成生存威胁。本文开发了一个全薪酬竞争模型,以推导公共政策的含义,以避免这种结果。在赢家通吃的竞赛中,玩家必须投资研发,只有最具竞争力的团队才能参加。考虑到AGI的难度,竞争团队的数量不太可能很大。此外,在AGI竞赛中参赛团队的意图以及获得中间奖项的可能性对于确定最终AGI的质量也很重要。中间奖的可能性将提高研究质量,但也有可能找到占主导地位的人工智能应用,因此将使公共控制变得更加紧迫。建议通过对人工智能征税和使用公共采购来减少不友好的人工智能的危险。这将减少竞争者的回报,提高竞争所需的研发数量,并协调和激励合作,所有这些结果都将有助于缓解人工智能中的控制和政治问题。未来的研究需要详细阐述人工智能创新的公共采购制度设计,并适当调整支撑高科技创新的法律框架,特别是处理人工智能创造的专利。
下载
这些必要的cookie是激活网站核心功能所必需的。不能选择不使用这些技术。
为了进一步改善我们的报价和我们的网站,我们收集匿名数据进行统计和分析。在这些cookie的帮助下,我们可以,例如,确定访问者的数量和某些页面对我们网站的影响,并优化我们的内容。