OpenAI的世界末日防护计划,”宣传机器人的潜在好处”,以及你今年夏天无法阅读的最佳虚构图书。在上一期AI Eye中,我们报道了来自四家领先AI公司的科学家认为,在未来十年内,有至少10%的机会AI会杀死大约50%的人类,其中一位科学家正在美国中西部购买农田,以便在AI启示降临时躲过世界末日。本周,另一位末日预备者是OpenAI的联合创始人Ilya Sutskever。根据《AI帝国》的作者Karen Hao的说法,他在2023年中旬告诉关键科学家们:“在发布AGI之前,我们绝对会建造一个地下掩体。”人工通用智能是一个模糊定义的概念,指的是比人类更聪明的有思维能力的智能体。这个地下设施将保护科学家们免受地缘政治混乱或世界大国之间的激烈竞争的影响。点击阅读更多。
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton