人工智能(AI)监管机构的设立:各国探索治理模式

人工智能(AI)监管机构的设立:各国探索治理模式

随着生成式 AI 技术的飞速发展,各国政府正加速推进专门的 AI 监管机构的设立和权力界定,以平衡技术创新与社会风险。全球正在探索多种治理模式,以期有效应对 AI 在伦理、安全和竞争方面带来的挑战。

治理模式的分化与焦点:

  1. 美国模式(分行业、自愿合作): 美国倾向于采取分行业监管,并鼓励科技公司在特定领域(如安全测试)进行自愿合作和承诺。但立法者仍在推动设立一个中央机构来处理跨领域的 AI 安全问题。

  2. 欧盟模式(集中、基于风险): 欧盟的《人工智能法案》(AI Act)代表了集中式的、基于风险分级的治理模式。一旦法案全面生效,将由指定的国家监管机构负责监督其执行。

  3. 英国模式(分散、依赖现有机构): 英国倾向于不设立新的中央 AI 机构,而是赋予现有监管机构(如竞争和市场管理局、信息专员办公室)新的权力来处理 AI 带来的挑战。

核心监管挑战: 无论采取何种模式,所有监管机构都面临如何应对**通用 AI 模型(如大模型)**的挑战。这些模型能力强大且用途广泛,监管机构必须找到既能确保其安全性,又不扼杀创新的平衡点。

发表回复

电子邮件地址不会被公开,必填项已用*标注