9月开学季,许多高校在新生报到期间都引进了人脸识别系统,新生到校不再需要复杂的报到流程,只要通过人脸识别系统便可以轻松完成报到。同时,为方便考勤,在上课的教室内,学校也安装了人脸识别系统。但人工智能的功能远不止于此。据了解,通过人脸识别系统,上课期间学生发呆、玩手机等行为都可以被感知。此事引发了舆论的广泛争议,一些网友称此举有侵犯学生隐私和尊严之嫌。
对此,9月5日,教育部科学技术司司长雷朝滋在接受采访时说,人脸识别进校园,既有数据安全也有个人隐私问题,“教育部已经开始关注这个事情,正组织专家论证研究。对学生的个人信息要非常谨慎,能不采集就不采,能少采集就少采集”。
教育部对于人脸识别技术进校园持谨慎态度值得肯定。一段时间以来,教育改革加速了人脸识别等人工智能技术在教育领域的应用。人工智能技术,既可以帮助学生随时随地学习,也可以帮助老师更好地优化教学,让老师在辅助学生成长过程中更有针对性。但是,从另一个角度来讲,由于我国缺少必要的数据法律法规,对学生,特别是未成年人谨慎使用人脸识别等人工智能技术是应该的。
教育部有关部门负责人对人脸识别进校园提出了两方面的安全问题。一是隐私安全。对于隐私,我国有相对完善的立法保护。2012年和2016年, 下转第八版
上接第一版 全国人大常委会分别审议通过了《全国人民代表大会常务委员会关于加强网络信息保护的决定》和《中华人民共和国网络安全法》,这两部法律对于信息时代依法保护公民个人信息安全起到了至关重要的作用。不久前,一款名叫ZAO的AI换脸App涉嫌违反法律规定,滥用人脸识别技术,运营团队受到了工信部约谈,主要依据的就是上述两部法律。
二是数据安全。在这一方面我国的法律法规相对空白。以人脸识别等人工智能技术进校园为例,即使通过人工智能收集到的数据,既不涉及学生隐私,也不被用于公民个人身份识别,但是如何确保数据安全,特别是如何确保数据不被滥用,不用于危害国家、集体和个人的利益,同样是一个值得重视的法律问题。
随着国家大数据战略的提出,在今年的两会上,一些人大代表、政协委员开始关注大数据立法问题。这既有打通数据壁垒,推动国家治理现代化的需要,也有减少和杜绝数据滥用的要求。毕竟数据无罪,但使用者有善恶之分。依法确保数据使用向善也是法律的责任。
不久前,在深圳召开的全球人工智能创业者大会上,多家高校及人工智能企业联合发起了《新一代人工智能行业自律公约》,自律公约旨在增强行业整体自律意识,积极推动人工智能行业的职业道德建设,维护人工智能行业健康正向发展,共同创造良好的行业发展环境。自律公约体现了行业的自我规范,以及科技向善的价值追求,也体现了行业内部推动人工智能技术规范应用的迫切需要。
包括人脸识别在内的人工智能的广泛应用已是大势所趋,不可阻挡。在这种情况下,人们不仅要使用人工智能,更要安全地使用人工智能。要实现这种安全既要靠自律,更要靠法律。
如今,人工智能时代已经到来,那么由此产生的立法还有多远?