OpenAI的末日地堡计划,”宣传机器人”的“潜在好处”,以及今年夏天你不能读到的最佳虚构书籍。在最新的AI Eye中,我们报道了来自四家领先AI公司的科学家们认为未来十年至少有10%的可能性会有AI杀死50%人类的情况,其中一位科学家正在美国中西部购买农田,以便在AI启示来临时躲过大劫。本周,另一位末日预备者是OpenAI联合创始人Ilya Sutskever。根据《AI帝国》作者Karen Hao的说法,他在2023年中告诉关键科学家:“在我们发布AGI之前,我们肯定会建造一个地堡。”人工通用智能是一个模糊定义的概念,指的是比人类更聪明的有知觉的智能。这个地下基地将保护科学家们免受一旦AGI发布后的地缘政治混乱或世界大国之间的激烈竞争。点击阅读更多。
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton