www.g22.com硅谷至暗时刻的疗毒:推出未来风险手册能成功避雷吗?

  

  从搜索引擎到社交平台,科技巨头们在现代世界中的重要作用不可或缺,却对自身平台的现状视若无睹。

  扎克伯格在哈佛宿舍里上线Facebook时,他还没有意识到这个平台将被算法宣发和过滤气泡所充斥;YouTube不会料到自己会被阴谋论者操控,而Twitter也不知道,煽动性的仇恨言论将会主宰整个平台。

  但他们应当承担这些未知的责任吗?一本新的指导手册表明,通过预测未来人类与科技关系的变化,科技巨头们可以调整产品方向以避免风险。本期全媒派(ID:quanmeipai)编译《连线》对未来道德风险手册Ethical OS的分析,并精编手册内容,看硅谷应如何避免触礁风险。

  Ethical OS由未来研究所、投资公司Omidyar Network和一家智库联合发起的技术与社会实验室推出,这个研究项目为期一年,旨在关注科技与社会的交叉领域。www.g22.com

  这份风险手册被视作学者与科技巨头之间沟通的桥梁,实验室的一位负责人Paula Goldman说,“在这个新时代,随着高科技的发展和普及,一系列意想不到的社会结果也会随之出现。然而,科技公司还不能理解这种联系,更无法提前做出应对措施。Ethical OS的意义正在于此,帮助科技公司们思考科技迅猛发展的后果,并提出应对方案,确保产品对世界有利,对科技公司的长期收益有利。”

  这份风险手册阐述了从假新闻到多巴胺经济的社会负面影响。作为工作手册,这份指南为产品开发团队、设计师和投资人提供自检清单、实验思路和基本解决方案。

  第一部分基于当今科技界的焦虑情绪,概述了14个在不远的将来可能会发生的场景。例如,如果像Facebook这样的公司收购一家大银行,成为重要的社会信用提供者,将会发生什么?再比如说,如果面部识别技术成为主流工具,开发出一款将该技术与约会和购物等日常活动整合的APP,又会发生什么?这份手册鼓励团队讨论每个可能会出现的场景,并将他们与现下开发的产品结合起来,讨论可以避免风险的办法。

  这些场景都来自于未来研究所认定的已经存在于当前社会的“信号”,例如“换脸”的deep fakes视频、利用算法来“预判”正义的软件,以及对技术成瘾日益增长的担忧。

  “我们收集想法,来激发团队的想象力。随后我们会尝试寻求发展的不同模式,采访技术的发明者们,以研究避险理论。”未来研究所的游戏部研究主任和Ethical OS的研究负责人Jane McGonigal说。

  这份手册的第二部分为科技企业们列出了一份风险自查表,划出八个风险区域,包括机器伦理和算法偏差、数据资料使用与盈利等问题。

  该指南旨在提醒技术团队可能会出现的风险,并尝试提出解决问题的方法,例如:技术是否强化、加深了偏见?如何设计产品才能提高用户时间利用率?如果公司被收购或关闭,如何处理用户数据?

  从假新闻传播到政治宣传的机器人,都在尽力模仿真实用户的行为和口吻。危险的假消息数量正在增加,甚至以“deep fakes”的换脸视频形式出现。这些虚假视频的说服力非常高,凭借技术改变视频中人物的身份、言论和面部表情,为从未发生过的事情伪造证据。

  许多个人和团体希望大规模颠覆真相,特别是在政治领域。新的媒体技术让谣言传播更加容易,公众信任也更易倾塌。在接下来的十年中,还有什么将会被新技术伪造?我们需要保护哪些真相?

  现有的哪些技术会被恶意利用以颠覆事实?平台现有的哪些内容有可能会成为假新闻、deep fakes视频或水军账号?

  现有的平台技术会被恶意利用以破坏公众对社会机构(媒体、医疗机构等)的信任吗?会被利用以捏造假消息、制造政治怀疑或社会动荡吗?

  Common Sense媒体机构研究发现,青少年每天花在媒介上的时间平均高达9个小时。事实上,花在电子设备上的时间之长越来越引起公众的担忧。人文科技中心的创始人Tristan Harris呼吁科技公司鼓励用户“善用时间”,建议产品设计师优化用户在平台上所花费的时间,从而提高用户的整体幸福感。

  研究表明,Instagram和Snapchat这类手机应用的最佳使用时间是11分钟,超过这个时间,用户的幸福感就会下降。如何设计应用软件,才能让用户更好地利用时间?才能优先考虑用户的幸福感,而非尽可能长时间地占据用户注意力?

  企业所选择的商业模式是否受益于最大限度的用户关注与参与?如果是,这对用户的身心健康有何益处或危害?

  如果平台中存在可以提升用户参与度的有害内容,如阴谋论、宣传洗脑等,企业可以采取哪些措施来解决这些内容的传播?这些措施的力度是否足够?

  根据Oxfam在2017年的数据,世界前8位富豪拥有的财产相当于最底层人口财产总和的一半。财富的集中与分配问题贯穿了整个现代史,但如今情况变得越来越糟。在美国,现在是资产集中从1928年以来最为严重的时期。科技可以让人们获得更多的机遇和收入,同时也会因为只照顾高收入群体、减少低等重复性劳动而加剧收入不平等。

  该项技术可以创造或传播什么财富?(例如:健康数据、虚拟货币、深度人工智能)谁有权使用该资产?谁有能力通过其盈利?该资产(或从中获得的利润)是否会参与公平分配?

  企业是通过机器学习、机器人而非人工创造财富吗?如果企业因此减少了人力招聘岗位,会如何影响整体经济福祉和社会稳定?

  随着人工智能在社会福利、教育、就业和司法等关键领域的应用日益增加,由人工智能引起、甚至放大的偏见令人担忧。不论是带有种族歧视色彩的警察面部识别系统,还是给予某些特征更高权重的搜索引擎,都在表明科技本身并不是中立的。这是因为,技术通常是人类行为的产物,或是人类使用的工具——而从本质上来说,人类并不是客观中立的。

  依靠人工智能来应对上述挑战的解决方案常常忽视了这样一个事实:人工智能本身就是人类创造和使用的工具。在设计、使用和管理人工智能技术方面采取多领域的交叉办法,对于解决某些有意或无意的歧视仍然至关重要。

  该技术是否利用了深度数据集和机器学习?如果是,数据中是否存在可能会影响结果公正性的任何缺陷?

  一些利用水军账号攻击意见相左者的事例表明,即使是出于良性目的的技术也有可能会被用来制造伤害。

  在某些情况下,大量Twitter和Facebook水军账号会被用来针对那些公开提出反对观点的记者、活动家,甚至普通公民。

  与此同时,面部识别和社交媒体跟踪系统的大量使用,使得政府能够建立公民个人行为的深层记录。“公民积分”收集的多年数据可以用来限制部分公民进入公共场所、获得工作机会,这种积分体制本质上是基于公民先前的行为和言论,建立一种新型的不平等社会。

  企业所创建的数据资料是否会跟随用户一辈子、并影响他们的个人名誉或未来机遇?会对个人的自由和名誉产生长期影响吗?

  未来,用户也许能够使用某些工具,用于获取、共享、解释和验证个人及其生活环境信息。在披露会损害其权益的情况下,他们将保留维护个人和机构数据隐私的权利。除此之外,用户还有望控制对其个人数据的访问路径,并有选择地分享这些资料,与创建、使用这些数据资料的科技公司一道从中受益。

  企业收集了哪些用户数据?确实有收集的必要吗?会出售这些数据吗?出售给什么样的机构组织呢?用户会知道企业出售行为吗?如何使其更加透明?

  如果用户资料被恶意利用,会引发什么样的后果?如果数据丢失或被盗,所能导致的最严重损失是什么?

  数据滥用是个严重的问题,但同样麻烦的是,许多用户并不能充分认识应用软件和平台是如何工作的,他们不了解自己的参与是如何一步步被优化,也不知道平台跟踪和收集的资料究竟是什么。多数平台的服务条款非常晦涩,用户往往很难弄懂,并在不了解的情况下就授予平台各种权限。

  未来,如果在用户难以阅读艰深晦涩的服务条款的情况下,科技公司推出的产品或其职员违背条约内容,科技公司有可能面临更为强烈的指责。

  产品是否会在用户不知情的情况下做出某些举措?当用户发现时,是否会感到出乎意料?如果是,为何不向用户明确提出该要求?

  如果用户反对公司从用户行为中获取经济利益、或是将用户资料卖给特定组织,但是他们仍然想使用这个平台,用户有何选择?企业是否会创建替代产品来建立用户信任?

  是否所有用户都能受到平等对待?如果不是,平台算法和预测技术将优先考虑某些信息,或为不同用户设定阶梯价格和访问权限,如此,公司将如何处理用户需求?如何遵守用户平等的行政规定?

  2017年8月12日,在弗吉尼亚州一场名为“团结”的集会上,一名与白人至上主义组织有关联的男子开车撞向人群。据悉这次集会是通过Facebook组织的,尽管恶意报复社会的犯罪行为并不是什么新鲜事,但是互联网软件能够以前所未有的速度在全球范围内传递信息,让那些希望传播仇恨的人也可以轻易达到目的。

  由于科技的发展,网络霸凌、激进言论、钓鱼行为等大量恶意行为迅速增长。对于在此种环境中的用户来说,减少或阻止负面体验几乎是不可能的。风险手册为企业提出的避雷指南如下:

  该技术如果被当做武器会有何风险?公司承担了何种阻止其被利用的责任?如何制定防止技术武器化的规章或国际条约?

  到目前为止,已经有将近20家公司、初创企业和学校对这份手册进行了试验,利用其促进道德规范管理,或指导具体的产品决策。例如,在全国各地运行40多个创业加速项目的Techstars公司,已经开始使用Ethical OS框架来决定投资哪些初创企业。

  “这种类型的决策在科技界并不常见,”技术与社会实验室常驻企业家Raina Kumra说,“此前我为自己的创业公司找投资时,我和一百多家风投机构的负责人交谈过,没有一次提到道德风险。”

  在达特茅斯研究行为与科技交叉问题的研究员Luke Stark说,“正因为如此,这样的指南非常受欢迎,而且早就应该完成。学者们关注这些问题已经很久了,所以看到这些内容终于被应用于技术开发团队,十分令人激动。”

  Stark说,在Ethical OS中关注的领域方向是“绝对正确的”。但是,由于这是一份面向技术开发团队和投资者的指南,所以其中提出的一些解决方案更看重经济利益而非社会需求。

  Goldman把Ethical OS看作是企业思考未来影响的第一步,她把这份指南称之为“脚手架”——一个旨在构建更有深度、时效更长、更严肃的对话的企业框架。不仅仅在科技界,其他行业如医药行业,也有类似处理道德风险的准则。

  这种未来避险模式能否成为产品开发守则?目前还有待观察。但是Goldman和Kumra表示,科技公司对此表示出了前所未有的兴趣。硅谷刚刚开始应用这份未来风险手册,并且希望将其做得更好。

 
 
 
 
 
 
 
 
 
 
 
 
本类最新

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

安全生产龙江行:鹤岗市开通安全生

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

www.g22.com硅谷至暗时刻的疗毒:

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

齐鲁制药向恒瑞发律师函 称后者

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

我省启动研学游产品“海选”活动

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

宣传手册未明确与汽车智能互联的

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

恒峰娱乐金融知识 - 新丰县人民

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

失败产品手册:如何成功地做死一款

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

全北京各区游戏及相关企业分布图
 
 
 
 
 
 
本类热门

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

反不正当竞争法保护特有装潢的认

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

齐鲁制药向恒瑞发律师函 称后者

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

游戏商务拓展手册:全北京各区游戏

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

小册子 恒峰娱乐手机安卓版大作

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

最全医恒峰娱乐在线疗健康APP用

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

恒峰娱乐金融知识 - 新丰县人民

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

恒峰国际娱乐官网「独家原创」巴

产品类型:[!--pbrand--] 涵盖功能:[!--intro--] 主要功能:编辑

跨境电商智能恒峰娱乐官网888服
 
 
 
 
 
 
推荐新闻