OpenAI 的末日防护计划,”宣传机器人的潜在益处”,以及这个夏天你看不到的最佳虚构书籍。在上一期 AI 赛眼中,我们报道了来自四家领先 AI 公司的科学家们认为,未来十年 AI 至少有 10% 的几率杀死人类约 50% 的可能性,其中一位科学家正在美国中西部购买农田,以便在 AI 天启时幸存。本周,有消息称另一位末日预备者是 OpenAI 联合创始人 Ilya Sutskever。根据《Empire of AI》作者 Karen Hao 的说法,他在 2023 年中期告诉主要科学家们,“在发布 AGI 之前我们肯定会建造一个防护掩体。” 人工通用智能是一个模糊定义的概念,指的是一种比人类更聪明的有思维能力的智能。这座地下基地将保护科学家们免受一旦 AGI 发布后的地缘政治混乱或世界大国之间的激烈竞争。[阅读更多](https://cointelegraph.com/magazine/openais-doomsday-bunker-15-fakest-books-hollywoods-over-with-veo-3-ai-eye/)
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton