导航菜单

美国发布人工智能标准制定指南,既要防止技术损害又要够灵活

?

427.jpg

最近,美国就政府如何制定人工智能技术和道德标准发布了指导意见。

美国国家标准与技术研究院(NIST)最近发布了关于政府如何开发人工智能技术和道德标准的指南。虽然它没有任何具体的法规或政策,但该指南概述了一些有助于美国政府促进负责任地使用人工智能的举措,并概述了指导未来技术标准的高级原则。

NIST指出,人工智能的联邦标准必须足够严格,以防止技术损害人类,同时保持足够的灵活性,以鼓励创新并使技术行业受益。如果没有更好的标准来衡量人工智能工具的性能和可信度,那么政府可能会发现难以实现这种平衡。

该指南强调需要开发有助于组织更好地研究和评估人工智能系统质量的技术。这些工具包括标准化的测试机制和强大的性能指标,使政府能够更好地了解系统并确定如何制定有效的标准。

该指南指出,参与制定人工智能标准的人必须理解并遵守美国政府的政策和原则,包括那些涉及社会和道德问题以及治理和隐私的政策和原则。虽然人们普遍认为这些问题必须纳入人工智能标准,但尚不清楚应该做些什么以及是否有足够的科学和技术基础来制定这些标准。

NIST表示,未来几年开发的人工智能标准应该足够灵活,以适应新技术,同时最大限度地减少偏见并保护个人隐私。虽然一些标准将适用于更广泛的人工智能市场,但NIST建议政府还检查特定应用是否需要更具针对性的标准和法规。

NIST表示,引入人工智能标准的时机也很重要,太早,可能阻碍创新;但如果来得太晚,业界很难自愿同意这些标准。因此,政府机构必须不断了解人工智能的现状,并了解何时可能需要采取联邦行动。

该指南建议白宫指定国家科学技术委员会成员监督人工智能标准的发展,并敦促各机构研究技术公司正在采取的指导其人工智能开发工作的方法。

NIST还建议政府投资的重点是了解人工智能的可信度,并将这些指标纳入未来的标准。 NIST表示,扩大公私合作伙伴关系也将有助于为联邦情报标准提供信息,加强与国际合作伙伴的合作有助于解决与技术相关的许多国家安全问题。

(原标题美国发布人工智能标准制定指南)