OpenAI的末日防护计划,”宣传机器人的潜在好处”,以及这个夏天你不能错过的最好假书。在上一期AI Eye中,我们报道称,来自四家领先人工智能公司的科学家们认为,在未来十年内,人工智能有至少10%的机会杀死50%的人类,其中一位科学家正在美国中西部购买农田,以便在人工智能启示降临时躲避末日。而本周,又曝出另一位末日预言者,OpenAI的联合创始人Ilya Sutskever。根据《AI帝国》作者Karen Hao的说法,他在2023年中告诉关键科学家们:”在我们发布通用人工智能之前,我们肯定会建造一个防护掩体。” 通用人工智能是一个模糊定义的概念,指的是比人类更聪明的有感知能力的智能。这座地下建筑将保护科学家免受一旦通用人工智能问世后的地缘政治混乱或世界大国之间的激烈竞争。详情请点击阅读更多。
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton