谷歌提出人工智能的五个安全规则

不久前谷歌与OpenAI公司、斯坦福大学和伯克利大学联合发表一篇题为《AI安全的具体问题》的论文,猜想研究人员在研发和使用AI过程中可能遇到的具体问题。 谷歌研究(Google Research)的Chris Olah)周二则在一篇博文中阐述了开发出更智能、更安全人工智能的五大规则。

http://static.cnbetacdn.com/article/2016/0622/5600c03d660756c.png

Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”

Olah提出的五个规则是:

避免负面效应:AI在完成一组任务时不应该被周围环境打扰。

避免奖励黑客: AI应该妥当地完成任务,而不是借助一些迂回的方法。

可扩展的监督: AI不需要接收不断的反馈或有效的输入。

安全探索:AI在学习时不应伤害自身或环境。

鲁棒性到分布式的转变: AI应该能够识别出全新的环境,并在新环境中有效地完成任务。

【版权提示】中商情报网倡导尊重与保护知识产权。如发现本站文章存在版权问题,烦请联系editor@askci.com0755-82095495,我们将及时沟通与处理。

  • 中商情报网
    扫一扫、与您一起发现数据的价值
  • 每日融资简报
    扫一扫、掌握资本市场最新情报

中商情报网始终聚焦科技、互联网+、创业、财经、产经大数据等,目前在全国财经网站中排名居前,旗下中商产业研究院专注产业经济细分市场研究,中商可以为用您提供一手的市场数据和高价值的商业资讯,欢迎沟通交流合作!

广告、内容合作请点这里:

寻求报道 ››
相关研究
相关文章
  • 排行榜
  • 推荐
  • 热门
中商产业研究院| 关于我们| 媒体合作| 诚聘英才| 联系方式| 我要投稿| 意见反馈

Copyright 2003-2020 askci Corporation, All Rights Reserved 中商情报网版权所有

粤ICP备05057834号 增值电信业务经营许可证:粤B2-20130242