共计 440 个字符,预计需要花费 2 分钟才能阅读完成。
欧盟近期在 AI 监管领域再出新招,发布了《人工智能法案》的首批合规指南,重点针对高风险 AI 应用。这一举措引发了业界的广泛关注和讨论。
根据新规,欧盟将全面禁止使用 AI 技术建立社会评分系统。这一决定源于对 AI 评分可能带来的社会风险的担忧。同时,被定义为 ’ 潜意识技术 ’ 的 AI 应用也将受到严格限制,这类技术被认为存在操控用户行为的潜在风险。
然而,新规的实施并非易事。欧盟内部就具体执行细则仍存在分歧,主要源于各成员国法律体系的差异。如何协调统一这些规定,成为摆在欧盟面前的一大挑战。
值得注意的是,新规设定了严厉的处罚标准:违规企业可能面临最高达全球营业额 7% 的罚款。这一规定让不少 AI 企业开始重新审视自身的合规策略。
虽然目前发布的只是草案,但欧盟此次展现出的决心不容小觑。不过,考虑到 AI 技术的快速发展速度,单纯依靠立法可能难以完全跟上技术变革的步伐。行业自律和技术伦理建设同样重要。
对于关注 AI 监管动态的读者,建议订阅 TechCrunch 每周三的 AI 新闻简报,这是获取相关资讯的优质渠道。
正文完