导读据日经新闻最新报道,日本政府正在考虑明年成立一个组织,讨论人工智能(AI)安全问题,包括将民用人工智能技术转化为军事目的的风险,旨在...
据日经新闻最新报道,日本政府正在考虑明年成立一个组织,讨论人工智能(AI)安全问题,包括将民用人工智能技术转化为军事目的的风险,旨在提高其安全性,而不妨碍研发。据报道,该计划预计将在本月举行的人工智能战略委员会会议上正式宣布,该委员会负责讨论与人工智能相关的国家战略,其成员包括在人工智能领域有经验的私营部门的专业人员。
关注最先进的产品,如Open人工智能ChatGPT。为了避免干扰私营部门,用于提高运营效率的标准人工智能技术将不会成为日本政府的目标。
人工智能产品在进入市场之前需要进行一系列的测试,日本政府购买的任何人工智能产品在使用前都必须经过专业机构的认证。
新成立的组织计划研究潜在的国家安全风险,如通过人工智能获取生物、化学或其他武器信息的可能性,并检查安全漏洞,包括对网络的攻击。
此外,它还将调查人工智能变得无法控制的风险,以及与错误信息和偏见有关的问题。人工智能控制的社交媒体账户可以自动生成网络内容,与人类用户互动,操纵公众舆论或煽动情绪。
目前,随着信息技术的发展,人工智能技术在军事领域的广泛应用已成为现实。一系列人工智能操作,如人工智能收集和分析战场数据,已广泛应用于作战系统中。民用人工智能技术几乎是一个不可避免的问题。
虽然可能会建立一个新的组织,但最有可能的结果是将一个新的部门纳入现有的组织。候选人包括国家信息通信技术研究所,总务省下属研究人工智能技术,经济产业省下属信息技术推广机构。
本月初,七国集团(G7)就人工智能国际规则框架达成了最终协议。这将成为开发人员和用户第一个全面的国际规则,规定人工智能“所有相关人员”应遵守其职责。
G7努力以防止人工智能滥用的形式获得G7以外国家和企业的认可。日本政府将利用该协议制定国内指导方针,即人工智能开发商在向市场推出产品之前需要接受第三方风险评估。
英国和美国在创建人工智能机构方面也处于领先地位。今年11月,英国成立了世界上第一家人工智能安全研究所。在验证了尖端人工智能产品上市前后,考虑披露存在安全风险的产品。
根据拜登总统今年10月的行政命令,美国正在制定以国家标准和技术研究所为主导的人工智能安全评估方法。目的是与私营公司建立人工智能安全联盟,制定评估人工智能能力和风险的方法,并希望私营公司自己进行风险验证。