首页 > 股市要闻 > 财经正文

技术是双刃剑 AI之下学生还有隐私存在吗?

2021-03-26 00:40:33 来源:金投网作者:网络
旷视科技对学生人脸的监控,以及ZAO事件,折射出人工智能技术本身的双刃剑特性——一方面代替重复性劳动,但同时带来随时监测个人生活的“惊悚感”。在人工智能高速发展过程中,技术与个人隐私之间的矛盾确实是“不可调和”的,作为企业主体,更该主动进行用户数据安全的保护。当人工智能等前沿技术逐渐应用于现实场景,投资人与创始人口中所谓的“数据优势”是否以牺牲用户隐私安全为代价?近日,关于人脸识别技术与个人数据安

该疑问提出的考量,来自于对人工智能技术采集个人数据的担忧,一位不愿透露姓名的人工智能领域研究人士对记者表示,旷视科技对学生人脸的监控,以及ZAO事件,折射出人工智能技术本身的双刃剑特性——一方面代替重复性劳动,但同时带来随时监测个人生活的“惊悚感”。他称,一般来讲业内会将现实生活场景的可视化视为好事,但前提是需要界定人工智能时代,什么数据是隐私?什么数据可开放?

企业方应主动保护数据安全

实际上,人脸识别技术此前早已步入校园与学生生活。

2015年,清华大学在高校信息化建设中首次引入人脸识别技术,通过识别系统和智能设备,实现学生自行注册、自行办理火车票优惠卡充值、自行打印成绩单、自行办理在读证明等各项业务;2018年,全国各地初中以“提升校园安全”为由,在校园门口安装人脸识别考勤系统,以南京中国药科大学为例,其在校门、图书馆和宿舍都安装了人脸识别门禁。

此次旷视之所以引发争议,很大程度在于其将原本简单的签到、注册、买票等业务升级到对微表情的分析,其官方对该技术介绍称:“在课堂教学评价系统中,旷视科技将自主研发的人脸识别、行为识别、表情识别等技术,集成在考勤及行为分析摄像机MegEye-C3V-920和行为分析服务器中。通过对课堂视频数据进行实时的结构化分析,反馈学生行为、表情、专注度、前排上座率等多维度课堂数据,辅助教学评估评价。”

国外对人脸识别技术的落地应用采取了更为彻底的管制。

  • 相关阅读