据韩联社报道,韩国《人工智能发展与信任构建基本法》(简称“ai基本法”)已于1月22日正式生效,使韩国成为全球首个全面落地实施人工智能专门法律框架的国家。

该法律聚焦于AI模型的安全可控应用,构建起一套系统性监管体系,旨在遏制虚假信息传播、深度伪造等AI衍生风险。其核心在于强化企业及AI开发者主体责任,要求其主动防范AI输出内容可能引发的误导性后果,并授权政府对违规行为启动调查或施以行政处罚。
法案首次明确界定“高风险AI系统”,即在就业筛选、信贷评估、医疗辅助等直接影响公众生活安全与权益的关键场景中部署的AI模型。
凡使用此类高风险AI系统的机构,须向用户清晰披露服务由AI驱动,并切实履行安全保障义务;同时,所有AI生成内容均须嵌入可识别标识(即数字水印),以表明其非人工创作属性。一位韩国主管部门官员指出:“为AI产出内容加注水印,是防范技术滥用(如制造深度伪造影像)所必需的基础性防护手段。”
面向韩国市场提供AI服务的境外企业,若满足以下任一条件——全球年营收达1万亿韩元(约合6.81亿美元)及以上、在韩年销售额超100亿韩元、或在韩日活跃用户数不低于100万人——则必须指定一名常驻韩国的本地代表。目前,OpenAI与Google均已达到上述适用门槛。
违法者将面临最高3000万韩元的罚款。为保障平稳过渡,政府将设置为期一年的合规缓冲期,协助业界完成适应性调整。此外,法案还纳入推动AI产业健康发展的配套机制,明确规定韩国科学技术情报通信部长官须每三年编制并提交一份国家级AI发展战略蓝图。










