美媒:人工智能危险程度堪比疫情、核战

WBOY
发布: 2023-06-03 11:08:30
转载
593人浏览过

美媒:人工智能危险程度堪比疫情、核战

参考消息网5月31日报道美国《财富》杂志网站5月30日发表题为《萨姆·奥尔特曼和其他技术专家警告,人工智能构成“灭绝风险”,危险程度与疫情、核战不相上下》的报道,全文摘编如下:

技术专家和计算机科学专家警告说,人工智能对人类生存构成的威胁与核战争和全球大流行病相比不相上下,就连替人工智能打头阵的商界领袖也对这项技术威胁人类的生存发出了警告。

非营利研究机构人工智能安全中心30日发表了一份“关于人工智能风险的声明”,在声明上签字的有300多人,开放人工智能研究中心的首席执行官萨姆·奥尔特曼也是其中一个。这封信虽然简短,但它概括了人工智能的风险。信中说:“降低人工智能灭绝人类的风险以及降低流行病和核战争等其他影响全社会的风险,应该成为全球优先考虑的事项。”

这封信的开头表明,声明的目的是启动讨论,为应对人工智能技术可能导致世界末日的能力做好准备。约舒亚·本乔和前谷歌工程师杰弗里·欣顿,还有其他签名者都加入了这个行动。由于这两人对现代计算机科学的贡献,他们被誉为人工智能教父。近几周来,本乔和欣顿已多次就人工智能技术在不久的将来可能发展出何种危险能力发出警告。欣顿最近离开了谷歌,以便能够更公开地讨论人工智能的风险。

这不是第一封呼吁进一步关注先进人工智能研究在没有政府更严格监管的情况下可能带来何种灾难性结果的信。今年3月,超过1000名技术专家以该技术具有破坏性的潜力为由,呼吁暂停研究先进人工智能6个月,埃隆·马斯克也是其中之一。

奥尔特曼本月警告国会,随着技术飞速发展,监管已经跟不上了。

奥尔特曼最新声明与之前的信不同,没有明确提出任何具体目标,仅呼吁展开讨论。而欣顿本月早些时候在接受美国有线电视新闻网采访时说,他没有在3月份的那封信上签字。

尽管包括开放人工智能研究中心甚至谷歌在内的顶尖人工智能研究机构的高管呼吁各国政府在监管人工智能方面尽快采取行动,但一些专家警告说,在当前的一些问题——包括虚假信息和可能存在的偏见——已经造成严重破坏的情况下,讨论这项技术未来威胁人类生存的风险是适得其反的。还有人甚至认为,奥尔特曼等首席执行官借着公开讨论人工智能的风险,实际上一直试图转移人们对该技术目前已存在问题的注意力。

但预言人工智能将带来世界末日的人也警告说,这项技术发展得过快,以至于风险可能很快变成一个问题,是人力所不能及的。超级人工智能能够自我思考和思辨的能力日益成熟,这让越来越多人感到担忧,速度甚至超出了很多人的预期。一些专家警告说,这项技术目前并不符合人类的利益和福祉。

欣顿本月在接受《华盛顿邮报》采访时说,超级人工智能正在快速发展,现在可能只剩下20年的时间了,现在是时候就先进人工智能的风险进行对话了。

他说:“这并不是科幻小说。”(编译/涂颀)

以上就是美媒:人工智能危险程度堪比疫情、核战的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
相关标签:
来源:搜狐网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号