2023年2月

IZA DP No. 15924:地外人工智能:最终存在的风险?

外星人工智能对人类构成生存威胁的可能性被忽视了。在经济学中也是如此,人工智能的生存风险和人工智能的潜在长期后果都被忽视了。本文提出了一个思想实验来解决这些空白。有人认为,我们可能遇到的任何先进的外星文明都可能是AGI,而这样的AGI将构成生存风险。对于为什么会出现这种情况,提出了两个论点。一个借鉴了黑暗森林假说,另一个借鉴了银河殖民命令。以下是我们如何管理人工智能和防范潜在存在风险的三个启示。它们是(i)加速人工智能的发展,作为预防措施;(ii)保持经济增长,直到我们达到创造AGI并向银河系扩张的财富和技术水平;(三)投入更多的研究和实践努力来解决费米悖论。 Several areas where economists can contribute to these three implications are identified.