作者: 财联社 黄君芝|
发布时间:2025-10-22 16:15:29
科技领袖联合呼吁:停止研发超级智能,或引发AI行业重大转折! 
摘要: 超过800名科技领袖,包括苹果联合创始人史蒂夫·沃兹尼克和“AI教父”约书亚·班吉欧等,联合签署公开声明,呼吁立即停止超级智能的开发,警示其可能带来的巨大风险。
正文:
近日,科技界掀起轩然大波!一份由超过800名知名人士签署的公开声明震撼发布,呼吁全球立即停止超级智能的研发。这份声明汇集了科技领袖、科学家和公众人物,包括:
- 苹果联合创始人 史蒂夫·沃茲尼克 (Steve Wozniak)
- 维珍集团董事长 理查·布兰森 (Richard Branson)
- “现代人工智能教父” 约书亚·班吉欧 (Yoshua Bengio)
- 杰佛瑞·辛顿 (Geoffrey Hinton)
声明警告称,超越人类智能的人工智能(AI)系统带来了从经济崩溃到人类灭绝的风险。
这一史无前例的联合行动,无疑给OpenAI、Meta等科技巨头正在进行的AI模型竞赛“泼了一盆冷水”。
签署者警告称,超级智能可能导致:
- 人类经济的落伍和权力的剥夺
- 自由、公民权利、尊严和控制权的丧失
- 国家安全风险,甚至可能导致人类灭绝

值得注意的是,Meta将其人工智能部门更名为“Meta超级智能实验室”,而OpenAI和马斯克的xAI正在争夺人工通用智能的领先地位。
这份联合声明的签名者名单跨越硅谷,甚至包括前国家安全顾问Susan Rice和前参谋长联席会议主席Mike Mullen,以及英国王妃梅根·马克尔等,反映了对国家安全的广泛担忧。
加州大学伯克利分校的人工智能安全研究员Stuart Russell认为,关键在于一旦超级智能系统存在,人类能否控制它们。
该声明呼吁全面禁止超级智能的发展,直到公众强烈支持并达成广泛的科学共识,即它可以安全可控地进行。
这份联合声明与以往的警告不同,许多签署者正是建立今天人工智能能力的研究人员和企业家。
结论:
这份由超过800名科技领袖签署的声明,可能会对AI行业产生深远影响。欧盟和美国等国家/地区正在探索人工智能安全框架,这份请愿书可能促使立法者对最先进的人工智能研究实施更严格的控制。未来发展方向,取决于各国政府如何应对这一呼吁。 ![]()
延伸阅读
原文链接