天才一秒记住【热天中文网】地址:https://www.rtzw.net
已经有类似的担忧表示这样的歧视行为可能会在汽车分享平台、住宿和劳务等点对点市场中出现。
例如,2014年由哈佛大学的本杰明·埃德尔曼(BenjaminEdelman)和迈克尔·卢卡(MichaelLuca)进行的一项研究认为,Airbnb平台里的美国非裔房主可能比白人房主拥有较低的定价权。
虽然这项研究并没有得出确定结论说这个不同是由于客人歧视美国非裔房主,但它却竖起了一面警示旗告诉我们需要警惕的是私人情绪对商业经营边界的侵入。
机器学习技术可以识别与歧视有关的行为模式。
毫无疑问,许多平台已经开始使用这种系统了。
2014年9月,底特律科技经济大会(TeyDetroitce)的一个小组讨论会上,主持人阿斯彭人文研究所(AspenInstitute)的詹妮弗·布拉德利(JenniferBradley)向TaskRabbit的董事长斯泰西·布朗-菲尔波特(Sta-Philpot)提问道:“平台是否有警示标志、保护措施或其他方式提醒你在平台系统中或不良经营者中有歧视行为呢?”
“我们有。
我们有一个数据科技团队,这个团队持续工作以确保我们一直能够标志出或提醒人们去真正了解和关注这个问题,”
布朗-菲尔波特回答说,“我们通过数据追踪影响人们选择任务人的各项指标,同时你也可以看到任务人的所有照片,所以你可以知道他们是什么样子,最重要的是他们都有一张微笑的脸。
就是这样。”
[71]
数据科技作为一种检测系统性歧视行为的方法拥有巨大的潜力。
通过面对面的互动进行个案研究往往很难确定歧视行为,但通过数据分析,这个问题却可能有得到解决的一线曙光。
例如,Lyft和Uber能够很容易通过乘客受到接受和拒绝的数据来实时检测和标记司机对应的歧视行为。
但是如果平台都主动选择这样做了,为什么还要把监管这件事留给平台自愿来做呢?而且相反,这些平台在代理一系列不同法律的执法工作后,作为交换也许还需要提交各种进行监管的记录。
联合广场投资公司的尼克·格罗斯曼(Nian)(他在一篇博文《缓慢的预感》[SlowHunch]中描绘了对数字经济中的监管工作的美好想象)和极具影响力的科技博客作者亚历克斯·霍华德(AlexHoward)共同提出了一个更为激进的选择,它要求平台将实时操作数据移交给城市和州政府,从而政府可以使用这些数据进行监管。
相比这种“强制透明性”
,我更喜欢我提出的利用数据进行委托管理的办法,因为它减少了经常出现的隐私问题,同时还降低了泄露竞争性有害信息的风险。
这种方法是有先例的——公开上市募股的公司,在某种意义上,也属于委托监管。
他们仅仅提供审计后的摘要证明(通过上交证券交易委员会的文件),而不是向监管机构提供原始业务数据以确认其合法经营。
由此,将系统内部的数据留在平台并保证合法经营,这个方法似乎更有效。
作为分享经济自我监管组织——无论是平台自己,还是第三方协会——创建了信用和监管记录,并作为政府合作伙伴获得了监管合法性,他们也许还可以对集中式的政府干预难以解决的社会问题提供自我监管的解决方案。
我们可以想象各种各样的社会目标由于平台将机器学习技术应用到数据检测模式,或将一些社会责任的概念整合到他们软件系统的设计中而部分得到实现。
这种利用数据进行委托监管的方法比实行完全透明化可以产生更广泛的调节,它为自我监管提供了发展机会——它准确反映了以分享经济平台为代表的分散市场和集中管理机构的有趣融合。
换句话说,分享经济能提供的创新方法不只是能应对自己的监管挑战,还能应对之前出现还未解决的其他监管挑战。
有许多分享经济相关的监管问题我还没有讨论到,但它们也许会成为我未来写作的主题。
随着数字平台掌握了我们在现实世界中交互的越来越详细的信息,新的隐私问题不断出现。
当然,移动运营商掌握我们真实世界中的详细信息已经很多年了,同样地,信用卡公司对我们现实世界的事务也了若指掌。
此外,我也还没有解决责任和保险的问题。
我相信点对点保险业代表了一个极其快速发展的领域。
我也没有谈到以区块链为基础的交易催生的“智能合同”
将会如何将传统的以及新的机构扩展深入到数字领域。
至此,我还没有讨论到监管的另一个关键领域,同时也是2015年的重点:分享经济中的劳动力监管。
我将在第7章和第8章中谈论这个话题。
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!