OpenAI的世界末日防护计划,”宣传机器人的潜在好处”,以及今年夏天您不能阅读的最佳虚假书籍。在上一期AI Eye中,我们报道了来自四家领先人工智能公司的科学家们认为,在未来十年内,人工智能有至少10%的可能性会导致大约50%的人类死亡,其中一位科学家甚至购买了美国中西部的农田,以便在人工智能启示降临时躲过世界末日。而这周,又有一位末日预备者出现,他就是OpenAI的联合创始人Ilya Sutskever。根据《AI帝国》的作者Karen Hao的说法,他在2023年中期告诉关键科学家们,“在我们发布人工通用智能之前,我们肯定会建造一个地堡。”人工通用智能是一个模糊定义的概念,指的是比人类更聪明的有感知能力的智能。这个地下设施将保护科学家们免受地缘政治混乱或世界大国之间的激烈竞争的影响。[阅读更多](https://cointelegraph.com/magazine/openais-doomsday-bunker-15-fakest-books-hollywoods-over-with-veo-3-ai-eye/)
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton