首页行业剖析 > —正文
当教室由于监控技术而变成笼子时,是否应该抵制有争议的人工智能使用场景?
2019-09-06 14:37:46

当马云和马斯克谈到人工智能是否会影响人类社会时,没有感情的艾已经在校园里做了坏事。最近,一个人工智能监控班的同学很快就在网上浏览了屏幕。这个视频记录了全班所有学生的任何行为,被人工智能记录下来,并进行了完整的数据分析。在这种人工智能场景中,由于监控技术,教室变成了一个笼子,并引发了道德、人性等方面的争议。

AI监视教室安全成为邪恶的借口

小明在课堂上的表现:躺在桌子上3次,睡1次,听1次,读0次,举起手0次,笑0次,表现出10次厌恶的表情。当这些多达十几个数据指标加在一起时,可能会让老师下一个判断:张小明是个不知名的落后学生。这不是一个科幻片段,在美国热门剧集黑镜中,艾监视人类,而是用当前的人工智能技术建立的恐怖场景。

据了解,这个教室监控系统的研究和开发是所谓的aiFirst广视技术。在对开放式视觉技术的描述中,该系统看起来相当优雅-该技术将自己开发的人脸识别、行为识别、表情识别等技术集成到考勤和行为分析摄像机megeye-c3v-920和行为分析服务器中,通过对课堂视频数据的实时结构化分析,反馈学生的行为、表情、注意力、前排出勤率和其他多维教室数据。

然而,无论多么先进的技术,都无法掩盖课堂监控系统来控制、抹杀和剥夺青少年的情绪。具有讽刺意味的是,当该系统引发争议时,该技术发布了一份官方声明,称它只是科技领域的一个概念性展示,重点是保护校园儿童的安全。你需要分析课堂上举手、睡觉、厌恶或快乐的表情,以保护青少年的安全吗?宽宏大量的技术显然在改变观念,甚至用安全作为监视年轻人个人行为的借口。