大数据杀熟、技术黑箱、算法偏见等专业名词,正在随着人工智能的普及引来人们的关注。随着人工智能技术的快速发展和广泛应用,技术伦理问题开始从幕后走到台前,成为人工智能研究发展的重要议题。
这段时间,一款AI换脸软件持续刷屏。该软件通过获取人脸信息,利用人工智能的深度学习技术,将影视剧、综艺节目片段中明星脸换成用户的。然而,在满足了用户短暂的娱乐心理后,软件中所设置的灰色条款引发了用户对于自身肖像权和信息安全的担忧。同时,软件的换脸行为是否对影视剧、综艺节目构成知识产权侵权仍有待商榷。这场讨论,进一步促进人们对人工智能技术未来的反思。
放眼当下,借助人工智能,企业赋予每个用户的偏好和行为以大量数据标签,摸透用户甚至超过用户对自己的了解;在社交媒体中,人工智能将观点相近的内容反复推荐给用户,逐步加剧偏见强化;通过对海量数据的挖掘,不同的消费者购买同一件商品的价格不同,有被“杀熟”之嫌……人工智能技术的商业化,带来了技术滥用、信息安全等问题。可以说,随着人工智能技术的飞跃,“智慧大爆发”带来的工具伦理性问题一直未被解决,进而造成个人隐私泄露、法律伦理困境。如何确保安全、合理地使用人工智能,亟待整个社会求解。
日前发布的《人工智能安全与法治导则(2019)》,从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的风险提出安全与法治应对策略。这是人工智能行业对于社会诉求的一种积极回应,也是行业对于自身技术发展安全性的一次深刻思考。也许,技术的不断革新可以破解现存的“技术黑箱”,但人工智能的发展必须始终坚持的是,把安全性作为其技术发展的考量标准,把握商业价值和人文价值的统一,把握市场伦理和技术伦理的统一。
实现技术可用、可靠、可知、可控,首先要在人工智能的商业考量中注入更多的人文关怀。必须明确的是,利用技术的主体和收益方应是人本身。发挥技术优势去弥补行业短板,理应明确人的主体地位,让人工智能在商业价值与人文价值中求得平衡。同时,更要让人工智能处在一个公平、安全的市场伦理下发展。技术应当存在伦理边界,技术发展和市场伦理的底线就是公平和安全。一方面,新的产品和技术应当经过严格的测试和验证,确保其性能达到合理预期;另一方面新技术的发展应确保数字网络、人身财产以及社会发展的安全。
智能时代的大幕正在拉开,“人工智能+教育”“人工智能+医疗”“人工智能+媒体”……不断打破着各个行业的发展瓶颈,重塑着不同产业的生产模式,更是给人类社会的发展拓展了更多的智慧空间。为人工智能注入更多的人文与安全基因,才能推动人工智能向安全、可靠、可控的方向发展。
免责声明:本文由用户投稿,(图文、音视频)均由用户自行上传分享,文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。若您的权利被侵害,请联系本站在线客服进行删除。