2018年8月
人工通用智能(AGI)的军备竞赛将对人类有害,甚至对人类的生存构成威胁,如果它导致了一个不友好的AGI。本文开发了一个全酬竞争模型,以得出避免这种结果的公共政策的含义。在赢者通吃的竞赛中,参与者必须投资研发,只有最有竞争力的团队才会参与。考虑到AGI的难度,竞争团队的数量不太可能非常大。此外,参加AGI比赛的团队的意图以及获得中间奖的可能性在决定最终AGI的质量方面也很重要。获得中间奖的可能性将提高研究质量,同时也将提高发现主导AGI应用的概率,因此将使公共控制变得更加紧迫。建议通过对人工智能征税和使用公共采购来降低不友好的AGI的危险。这将降低参赛者的回报,提高竞争所需的研发金额,并协调和激励合作,所有这些结果都将有助于缓解人工智能领域的控制和政治问题。未来的研究需要详细阐述人工智能创新的公共采购制度设计,并适当调整支撑高科技创新的法律框架,特别是处理人工智能创造的专利。
下载
这些必需的cookies是激活网站核心功能所必需的。无法选择退出这些技术。
为了进一步完善我们的服务和我们的网站,我们收集匿名数据进行统计和分析。例如,在这些cookie的帮助下,我们可以确定访问者的数量和我们网站上某些页面的效果,并优化我们的内容。