欧盟《人工智能法案》生效,全球监管AI的法规出台
欧盟《人工智能法案》生效,全球监管AI的法规出台
8月1日,欧盟《人工智能法案》正式生效,这是全球监管人工智能的法规,标志着欧盟在规范快速发展的人工智能应用方面迈出了重要一步。
该法案旨在通过风险导向的方法对人工智能系统进行分类和管理,确保其安全性和透明度,并保护基本权利和民主制度。所有人工智能系统,包括聊天机器人,都必须清楚地告知用户他们正在与一个AI系统进行交互。同时,AI技术供应商有责任确保由人工智能合成的音频、视频、文本和图像能够被识别为AI生成。
法案还规定了高风险人工智能系统的特别要求,包括在上市前进行严格评估和持续监测。
此外,法案还明确禁止使用那些可能明显威胁用户基本权利的人工智能系统。
欧盟《人工智能法案》基于风险预防的理念,为人工智能制定了一套覆盖全过程的风险规制体系。该法案采用风险分级的管理措施,将人工智能系统的风险划分为不可接受的风险、高风险、有限风险和轻微风险四种类型,并针对不同类型施加了不同的监管措施。 法案对人工智能存在的风险进行了分类,并规定了相应的义务和约束。例如,高风险人工智能系统在投放市场之前将受到严格的义务约束,包括透明度要求、数据治理、准确性、鲁棒性和网络安全等方面的规定。
值得注意的是,尽管某些条款将在两年内适用,但其中一些将更早实施。例如,学校和工作场所不得使用实时情绪识别系统,并且聊天机器人等人工智能系统必须明确告知用户他们在与机器互动。
欧盟《人工智能法案》的生效不仅为人工智能的发展提供了法律框架,也为其他国家和地区的监管提供了参考。全球范围内,包括谷歌、OpenAI等公司在内的AI企业,都需要适应新的合规要求和标准,从而推动全球人工智能产业向更高水平的规范化发展。
版权所有 © 2018-2024 烽唐集团
关于烽唐
新闻资讯
产品中心
解决方案
联系我们
旗下公司
生产咨询