发展人工智能技术规矩不可少

来源:光明日报

2023-01-12 17:35:13

近日,两件与人工智能技术应用有关事件引发社会广泛关注。第一件是一款视频编辑软件在社交媒体刷屏。该软件可以方便、快速地将视频中人物换为用户上传的任意人的脸。实际上,这种视频换脸很早以前利用专业视频编辑软件也可以实现,不过需要使用者有相应的技术,过程复杂。现在人工智能技术将这一复杂的技术过程简单化、快速化,普通人也可以轻松驾驭。第二件是一张学生课堂行为分析的图片,人工智能技术将学生抬头、看手机、低头、记笔记、打瞌睡等行为进行统计标明。


换脸应用有两点需要我们警惕:一是这种技术对社会信息传播秩序带来的冲击。惯常来说,视频对信息的保真度是高于文字和图片的,视频能够相对准确传播信息,是社会信息传播系统重要的媒介符号。这种易得、简单的换脸应用程序,如果被滥用势必引发传播秩序的混乱。二是这类应用软件收集人脸信息的合法性、安全性、可靠性存疑。人的面部、虹膜、指纹等生物特征识别信息,是重要的个人隐私信息。这类信息的重要性远大于地址、密码等类型信息。地址、密码可以修改,面部特征、指纹等生物信息终身唯一,无法更改,泄露后果的严重性,怎么说都不为过。如果这类信息一旦泄露,无可挽回,技术的开发者也无能为力,不论是技术开发者主观滥用,还是遭到黑客攻击、无意泄露,都难以挽回。现在刷脸在金融支付、交通出行、公共安全等领域已经广泛应用。面部生物信息的泄露,给整个社会体系带来的影响难以估量。


人工智能将学生课堂行为量化分析的问题在于,一是这种技术对学生行为分析的准确性、可靠性与可信度存疑。人工智能终究是一种算法,其当下能做到的是对个体行动轨迹的捕捉,不具备对人类丰富复杂的社会行为及其发生的场景准确判断和识别。同样是一个动作其意义可能差别很大。技术可以检测到学生低头写字,但到底写的是上课内容还是无关信息,显然再高级的人工智能也无法判断。人工智能可以准确识别学生是否出勤,但将课堂这么复杂丰富的人类行为场景,进行绝对量化的分析,不可靠。其次,即使技术上是可靠的,那么这种将学生课堂学习的行为如此量化来管理的道德正当性存疑。我们讲教育以人为本,因材施教,人不是机器,不能将学生行为进行彻底的数字化管理,技术不能奴役人。


这两件事反映出人工智能技术在快速发展和广泛应用,然而我们整个社会似乎对这种技术的认识还有待深化,对其带来的风险和挑战还没有做好治理准备。


在认识方面,人工智能技术可以高效、有效解决很多领域的问题,但要避免所有问题都由人工智能解决。人工智能对解决那些机械、枯燥、数据量庞大的、简单重复问题有效,但其缺少人情味、人性,所以在需要体现人的精神、情趣、想象、体现人性的工作,一定要人来做,不能一味追求技术解决。技术不是万能的。


人工智能技术治理关键是抓住三个核心关键问题:算法、数据和算力。政府要在涉及算法和数据两方面来立法和监督。要确保算法公开透明、可监督。数据方面对相关技术产品使用数据的种类、规模方面强化监管。在涉及人面部特征信息、指纹、血液等人体生物特征信息要设立严格的标准,从采集、传输、存储等环节规制,确保涉及个人安全和国家安全信息不被滥用和安全可控。数据应用的用户规模要与企业的安全保障能力匹配。此外,在涉及重要领域和广泛人群的技术应用要建立人工智能使用的伦理与安全评估机制,类似于医学研究的伦理评估环节,确保技术发展的正确方向和合理使用。建立第三方专业组织监督人工智能技术应用的安全性、可靠性与可控性。


企业要落实主体责任。在技术开发环节,遵循人工智能开发的基本原则:公平、可靠与安全、隐私与保障、包容、透明和负责,确保技术的可靠性、合法性和符合人类伦理规范。企业要有底线意识,不触犯相关的法律法规,要遵循基本的社会价值规范和公共道德,承担相应的社会责任。在各个软件分发平台,要严格检验应用的权限,确保用户下载应用的安全可靠性。


用户方面,要提升公众的技术使用素养,培养正确认识、合理使用技术的能力。也要研究在人工智能技术应用场景中,考虑用户选择权,包括是否使用人工智能技术以及使用的程度。


人工智能作为革命性的新技术,没有人能准确预测技术的未来结果。在对互联网治理上我们过去奉行“先发展后治理”的理念,人工智能技术应用的行业领域广泛、算法不透明、结果隐蔽,其治理与要其发展同步,应秉持“边发展边治理”的理念。最终让人工智能技术更好服务人类社会发展。(作者系天津师范大学新闻传播学院教师张建军)


责任编辑:侯博

Baidu
map