新一代人工智能发展规划由谁印发(天才基本法人工智能)

(记者季红梅)“建议加快制定我国人工智能法律法规和安全伦理标准,保障人工智能健康稳定发展,如尽快组织起草人工智能基本法。”8月6日,在中国计算机联合会(CCF)在苏召开的“国家科技创新体系与计算机战略发展研讨会”上,中国工程院院士、国家并行计算机工程技术研究中心总工程师陈左宁做了题为“《新一代人工智能安全与自主可控发展战略研究》”的报告,提出了这样的建议。她说,报告内容是包括中国工程院院士高文在内的多位院士的共同思想结晶,也是中国工程院一项重大战略咨询项目的研究成果。近年来,人工智能系统正在发展

应用暴露了很多安全问题。陈左宁表示,人工智能之所以会造成安全问题,主要是因为它具有学习能力,能够独立决策和行动。具体来说,人工智能系统中广泛使用的机器学习的三个重要属性是导致安全问题的基本原因,如机器学习的可理解性和可解释性、鲁棒性以及目标函数或奖励函数描述的不完全性。她认为,人工智能的安全问题可以从两个角度进行分类。从广义上讲,人工智能的安全问题包括人工智能系统作为人工系统(工程系统或信息系统)的安全问题,即人工智能技术应用引发的经济文化、法律伦理、国家和社会安全问题,以及人工智能系统的思维能力和自我发展对全人类可能造成的安全威胁。

5330430159961139775.gif

此外,人工智能安全问题可以分为内生安全问题和衍生安全问题。前者是指人工智能系统本身的设计、制造、使用环境或攻击所导致的安全问题;后者是指人工智能技术的应用对其他系统安全性的影响。陈左宁介绍,多位中国工程院院士围绕安全问题的解决提出了建议,包括以下几个方面:一是要明确主管部门,建立平台组织。建议明确国家层面负责人工智能安全和伦理审查的部门,建立国家级人工智能技术和产品应用测试评估平台或机构。二是加快制定我国人工智能法律法规和安全伦理标准,保障人工智能健康稳定发展。比如,尽快组织起草人工智能基本法,制定人工智能技术发展和应用的基础性法律文件。三是将人工智能安全与自控关键技术纳入现有研究项目,扩大人才队伍。第四,积极推动人工智能安全领域的国际合作,共同构建人类人工智能安全共同体。五是优化人工智能产业生态发展模式,实现人工智能应用产业链要素自主可控。

除已声明原创作品外,本站作品均由网友自主投稿、编辑整理发布,目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

选型/询价

在线选型报价小程序正加急开发中~_~,建议先关注我们公众号哟

交流社群 在线客服
关注我们
关注我们
分享本页
返回顶部
协作机器人产业服务平台,欢迎您!