OpenAI的末日地堡计划,”宣传机器人的潜在好处”,以及你今年夏天无法阅读的最好的假书。在上一期的AI Eye中,我们报道了来自四家领先人工智能公司的科学家们认为,在未来十年内有至少10%的可能性人工智能会杀死约50%的人类,其中一位科学家正在美国中西部购买农田,以便在人工智能启示之后幸存。本周,又有一位末日预备者浮出水面,他就是OpenAI的联合创始人Ilya Sutskever。据《AI帝国》作者Karen Hao称,他在2023年中期告诉主要科学家们:”在发布通用人工智能(AGI)之前,我们肯定会建造一个地堡。” 通用人工智能是一个模糊定义的概念,指的是比人类更聪明的有感知能力的智能。这个地下基地将保护科学家们免受一旦AGI发布后的地缘政治混乱或世界大国之间的激烈竞争。[阅读更多](https://cointelegraph.com/magazine/openais-doomsday-bunker-15-fakest-books-hollywoods-over-with-veo-3-ai-eye/)
新闻来源 (Source): Cointelegraph.com News
作者 (Author): Andrew Fenton