AI 挑战:规则要和时间赛跑

作者:文/张立栋

AI 挑战:规则要和时间赛跑

如无意外,本月底的围棋人机大战2.0 将如期举行。

包括柯洁在内, 中国顶尖棋手将和人工智能围棋程序AlphaGo 在乌镇进行人机大战。

以阿尔法狗大战李世石为标志,人工智能(AI)已不再是创业者或投资人口中的空泛概念,它深刻影响到了我们的生活,并且这种趋势将会更加明显。

现在的问题是,人类能否控制飞速演进的AI,利用其优势而不被其伤害?这需要尽快完善规则,这是个和时间赛跑的艰难过程。

过去一年里,人们更多聚焦AI 引发的伦理问题。现在,AI 发展的法律和规则更为紧迫。这对参与者的产业引导意义十分重要。

我们看到,已有专家对涉及AI 的法律问题进行总结并引起普遍关注。总体看来有如下几个方面:

首先是数据的收集、使用以及衍生的安全问题。

我们所说的AI,都涉及机器学习。学习的前提则是大量的数据。数据从哪里来?如何规范采集?尤其是,大量个人信息如何被安全使用都是目前法律的相对空白点。

国内外经验来看,人工智能应用的开发者和普通公众都正在面临法律困扰—— 一些可能带来更多便利的技术,会否在未来成为伤害自己的元凶?比如人脸识别技术、虹膜技术,甚或最简单的指纹识别。按照传统的法律体系,很多创新者的前进步伐都伴随着极大的法律风险。

国内虽然没有涉诉事件,但在国外问题已经出现,比如Facebook 由于某项法律而被迫在欧洲关闭人脸识别功能就是一例。

对某些技术运用、个人信息采集方式和使用范围,目前并没有太多普适性法律设计。有人或许说,这正是创新的黄金期,但反过来,毫无约束的创新也会给使用者带来噩梦。

技术和应用模式,究竟有哪些法律风险?无论对企业还是公民,都亟待厘清。

此外,在AI 产业的发展初期,一个消费者和企业都需要关注的是发生侵权后的责任问题。

正如专家所言,对产品生产者的严格责任,规定有“当前科学水平尚不能发现缺陷”的免责事由。但在人工智能领域是否适用还是个问题。

有专家认为,司法机关可能会推定开发者应当预见算法执行中的可能风险或要求开发者需要对风险程度的增加承担责任。生产者想要免责,就要对当前技术难以发现这项风险进行举证。这是一道难题但很有意义。

涉及AI 的法律问题还包括人工智能训练和设计中的弱势群体问题,也都需要业者综合考虑,留出提前量。

的确,法律问题虽然涉及所有人利益,但正是“事关所有人”所以往往会落入泛泛而谈的境地。所幸的是,面对AI 挑战,这些探讨从一开始就已经进入了正题,这是一个好现象。

返回顶部 加入收藏 打印本页