零字节资讯网2025年10月26日消息:

加强超级人工智能(ASI)风险研究的公开倡议

0

分享至

用微信扫码二维码

分享至好友和朋友圈

当前,超级人工智能(ASI)的研究正从理论探讨步入早期实践。海外科技界率先发起针对超大公司主导的ASI研究的安全倡议,国内也有头部企业亦开始布局相关探索。这一技术拐点不仅关乎智能突破,更伴随巨大的潜在风险,必将进一步深度重构人类文明,甚至通往令人担忧的纯粹机器文明。

2025年10月23日,科学界发起了ASI的声明Statement on Superintelligence,提出可能存在人类灭绝的风险。辛顿、本吉奥、姚期智等国内外著名科学家联合署名支持该份声明,详情请见:

https://superintelligence-statement.org/。

事关重大,人文社会科学界不应落后。我们呼吁学术界即刻启动跨学科协作研究,深入研究并向全社会阐明ASI的潜在风险及其可能的应对战略,为共同应对ASI可能带来的灾难性风险和存在论风险出一份力。

技术层面,需建立透明性的ASI,确保ASI智能系统与人类文明价值观的兼容性。

伦理层面,应努力构建社会公正、预防失控风险等相关制度设计,防范结构性失衡。

人文层面,亟需探讨ASI的人文关怀,帮助社会理解超级智能的文明冲击。这不仅是技术和科研的攻关,更是对人类命运共同体的责任担当。

我们倡议成立跨学科研究联盟,汇聚哲学家、伦理学者、计算机科学家、AI工程师、传播学家、法律专家、科幻作家和媒体朋友等各方面力量,切实加强超级人工智能风险研究。

期待各位同仁签署联名,以学术共同体的智慧照亮技术前路,确保超级智能始终服务于人类文明的永续发展。

(附:此倡议通过学术机构、社交媒体、报纸期刊等多渠道征集签署,我们正同步筹备首届“ASI与未来人类”跨学科论坛,将于11月9日在中国人民大学召开。)

倡议人:

杨庆峰(复旦大学教授)

刘永谋(中国人民大学教授)

闫宏秀(上海交通大学教授)

发起日:2025年10月23日

来源:杨庆峰(复旦大学科技伦理与人类未来研究院教授);刘永谋(中国人民大学哲学院教授);闫宏秀(上海交通大学马克思主义学院、数字化未来与价值研究中心教授)

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/

返回网易首页
下载网易新闻客户端

请继续点击阅读以下震撼之作:
136幅锁魂 ×21密钥开玄
伊甸园真容现世新疆于阗


点击上面零字节资讯网相机的圆圈
生成这篇文章的奇异、神秘的海报
然后将海报保存图片收藏,可发朋友圈
本文来自网络,不代表零字节网立场,
转载请注明出处:零字节网(0b.cn)

此文由访客“中国玉王”发布
“中国玉王”发布的所有文章
“中国玉王”提供的交易链接

我要在零字节网做自媒体, 发布内容

联系我们

联系我们

18999110818

在线咨询: QQ交谈

邮箱: 515910221@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

玉王手镯总汇 手镯检索 中国玉王易经
  和田玉手镯三十六计-三十六策技能干货
资讯首页 钟小玉同学