【IT168】在过去的一段时间中,数据泄露的新闻时有发生,这也引发了大众对于谁拥有我们的数据、我们的数据如何被使用和共享的关注。尽管在事情发生之后,很多科技公司都表态会以更好的方式来使用和保护用户数据,但是事实情况究竟如何呢?
在探究事实情况之前,我们先来说明一些其它情况:
首先,数据、算法、人工智能和机器学习等等是难以分开,且界限模糊。对于企业来说,这些概念是集中在一起的,但是对于研究人员和决策者来说却不是这样的。例如,机器学习虽是人工智能的一个分支,但是在没有监督的情况下让机器自己学习,那么,政策制定者必须要保证机器学习算法是不受偏见的,并且要考虑到各种社会和经济情况。
其次,考虑科技公司缺乏对数据伦理的一致性方法,所以我们调查了被广泛接受的道德原则。
五大类数据伦理
事实上,很多科技公司都在数据伦理方面做了努力,例如微软、IBM和谷歌都发布了自己的人工智能道德原则,而Facebook和亚马逊等公司则选择了加入人工智能合作伙伴关系(PAI)和信息技术产业委员会(ITI)等联盟。
通过对比这些道德准则的内容,我们发现它们大致可分为以下几类:
隐私:这是一个大家广泛认为很重要的事情,目前大多数企业的关注点都是传统的消费者/ 供应商关系,即消费者提供、产生的数据由公司拥有,公司可使用这些数据,但需尊重机密性。
治理:涉及数据管理中的问责制,确保数据的质量和准确性以及算法的道德应用。这里的重点是应该遵循的内部流程
公平性:公平性意味着以尊重数据背后的人的方式来使用数据和算法,同时也意味着要充分考虑安全性,认识到数据的使用对于人们生活的影响。
共享利益:数据由产生数据的人所拥有,所以应该共同控制和共享利益。
透明度:透明度本质上是指对数据的收集和使用方式持开放态度,以及避免不必要的数据收集。可以认为是对数据所有权更细微的理解。
目前科技公司对于数据伦理的关注主要集中在隐私和治理上,但其实这只是最低要求。对于科技公司来说,公平性和透明度是现在需要考虑的问题,也需要在数据处理道德和数据收益之间来取得一个平衡。另外,对于正确的数据道德,公司之间还没有取得共识,这可能还需要外部指导和监督。