OpenAI的末日地堡计划,”宣传机器人”的”潜在好处”,以及今年夏天你不能错过的最佳虚构书籍。在最近的AI Eye中,我们报道了来自四家领先人工智能公司的科学家认为,在未来十年内,人工智能有至少10%的可能性杀死全人类的消息——其中一位科学家正在美国中西部购买农田,以便在人工智能启示之时躲过末日浩劫。而本周,又有一位末日预言者浮出水面,他就是OpenAI的联合创始人Ilya Sutskever。根据《AI帝国》作者Karen Hao的说法,他在2023年中期告诉主要科学家们:”在我们发布通用人工智能之前,我们肯定会建造一个地堡。”通用人工智能是一个模糊定义的概念,指的是比人类更聪明的有感知能力的智能体。这个地下基地将保护科学家们免受一旦通用人工智能发布后的地缘政治混乱或世界大国之间的激烈竞争的影响。[阅读更多](https://cointelegraph.com/magazine/openais-doomsday-bunker-15-fakest-books-hollywoods-over-with-veo-3-ai-eye/)
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton