2023年2月

IZA DP No. 15924:外星人工智能:最终的生存风险?

人工地外智能对人类构成生存威胁的可能性被忽视了。在经济学中也是如此,人工智能的生存风险和AGI潜在的长期后果都被忽视了。本文提出了一个思想实验来解决这些缺陷。有人认为,我们可能遇到的任何先进的地外文明都可能是AGI,而这样的AGI将构成生存风险。对于为什么会出现这种情况,提出了两个论点。一个借鉴了黑暗森林假说,另一个借鉴了银河殖民势在必行。接下来,我们将对如何管理人工智能和防范潜在的生存风险产生三个影响。这些措施包括:(i)作为预防措施,加速人工智能的发展;(ii)保持经济增长,直到我们达到创造AGI并扩展到银河系的财富和技术水平;(iii)投入更多的研究和实际工作来解决费米悖论。 Several areas where economists can contribute to these three implications are identified.