OpenAI 的末日防护计划,”宣传机器人的潜在益处”,以及你今年夏天不能错过的最佳虚构书籍。在上一期 AI 眼中,我们报道了来自四家领先人工智能公司的科学家们相信,在未来十年,人工智能有至少 10% 的机会杀死大约 50% 的人类,其中一位科学家正在美国中西部购买农田,以便在人工智能启示之际躲过灾难。
本周,有消息称另一位末日预言者是 OpenAI 联合创始人 Ilya Sutskever。据《AI 帝国》一书作者 Karen Hao 报道,他在 2023 年中期告诉关键科学家们:“在我们发布通用人工智能之前,我们肯定会建造一个防护掩体。” 通用人工智能是一个模糊定义的概念,指的是比人类更聪明的有感知能力的智能。
这个地下基地将保护科学家们免受一旦通用人工智能发布后可能出现的地缘政治混乱或世界大国之间的激烈竞争。阅读更多
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton