算法正在通过很多很不可思议的方法控制着我们的生活。
当我在一家当地的熟食柜台取了一个号码牌后,我知道自己到最后肯定会得到相应的服务。因为有一个排队的算法在起作用——这种算法保持着先来先得的点餐模式。即使等待的时间会有差异,但是对于所有顾客来说它总是能达到一个可期待的平均服务时间。
举另一个例子进行对比,当我购买了一张彩票时,我将我的机会赋予了一个随机抽签的算法,但是结果很可能不会是我预想的那样。要赢得彩票不仅仅是一件不确定的事情,而且还不太可能。但是对于很多人来说,购买彩票本身这件事件就可以带给他一些短暂的情感上的安慰,所以它还是有经济效应的。
人们总是可以接受那些被保证的确定性算法以及那些在合适的时候完全随机的算法。不过如果想象一下相反的情形,如果你的熟食店随机挑选顾客进行服务那会怎样?如果有足够多的排队的顾客,你可能永远都拿不到你点的炸鸡。同样,如果彩票最后减除了管理费用将所有剩余的钱都返还给购买者又会怎样?即使这样会增加几乎所有人的投资回报,但这看起来就变得一点乐趣都没有了呢!
即使不用精通心理学或者行为经济学,我们也可以很明确地知晓对很多事情来说随机化有时候是合适的,有时候是不合适的。当我们在以小博大的时候,我们输了会抱怨;但是当我们在车管局等了4个小时之后它却关门了的时候,我们的反应可能会不太一样。
试想一下如果你的生命中很多重要的事情都会被那些对你不透明的算法所主宰是一种怎样的体验?比方说在你申请按揭、汽车贷款,以及在工作和学校录用人才时候,很多算法是看起来是随机的,但是某种程度上支配着你的命运。在这些算法不够透明的前提下,我们很难知道它们到底公平不公平,也很难因此预测事情发展的走势。而这种感觉就像是你不知道下次会不会遇到一架飞机随机地直接撞向你一样。
机器学习学到了什么?
让我们试想一下如果一些组织设计出了足够聪明和公平的算法,那么它可能会基于一些固有的、理性的逻辑,输出一些公正,随机的结果。或者可能是看起来很好但是操作上完全不透明的大数据机器学习算法。
有了机器学习,我们希望事情会变得更好,但是它也有可能变得更糟糕。在很多情况下,缺乏训练或设计的机器学习算法会带来一些错误的决定,这些决定可能会对一些群体带来不公。
这将会是一个越来越多并且对我们很重要的问题。机器学习正在影响我们很多重要的决定,而且还对我们的经济也越来越有掌控力。在不知不觉中它成为很多关键时刻的权威算法。
不过随着大数据和机器学习工具(例如Apache Spark)的易用性越来越高,以及我们周围物联网数据流的不断增加,我相信每一个数据驱动的任务都会在一些关键的地方被机器学习所优化。相信在不久的未来,机器学习算法会成为几乎所有应用程序内不可或缺的一个组件。
优化即更好,机器学习提供了一个让几乎所有事情变得更好更快的途径。我并不是夸大其词,但我相信很快机器学习会侵入人类生活的方方面面。我们可能已经到达了真正的“信息界的文艺复兴时代”。
但是我们还需要十分谨慎,我并不相信将来人工智能会进化到掌管整个宇宙的程度,但是很多不计后果开发出来的带有机器学习算法的应用程序已经出现了:比方说金融交易惨败、种族主义式拒绝贷款和监狱假释的不公等等。
不能预见的事情有什么?
当机器学习慢慢进入我们的生活之后,也开始衍生出一些比较大的社会问题。
无法意料的后果。这可能会在我们只针对某些特定参数进行优化,或者缺乏真实的相关数据的时候发生。当机器学习在优化某件事情上被优化得很好的时候,你很有可能开始在其他的一些方面优化得越来越少。
不可避免地将取代人工操作。刚开始随着机器学习的进步和优化,不再需要那些低技术水平的操作员,只留下一小部分专家水平的人来支持它即可。再到后来,当机器学习被认为已经足够成熟之后,可能这些专家也会被当做低技能、廉价的劳动力被替换掉。有些人可能就会说,那样子不就减少了人力资本,让人去做更高级的事情或者让人拥有更多闲暇时间吗?但是从目前来看,这种机器学习的涓滴效应并不能像经济学里面的涓滴效应一样靠谱。
对机器学习发现模型的盲目信任。很多的报告(比方说《数学杀伤性武器》)里面也讲到了一些人天真地使用机器学习算法来宣传在种族、性别和经济上的歧视。我们不能简单地建立一个不透明的算法,将其当做借口来忽视那些不公平和不公正。如果你听到一个人去做某一件事或决定是因为“算法让我这么做”,而提供不出任何数据的支持或者理由,那么这是完全不可靠的。
我们时常谈到有多少可能性缺乏识别能力又公平的机器学习算法会帮助这个世界设计出更完善和更有效率的流程。事实上,对于被算法影响最多的人来说,它是既神秘而又有不良影响的。我们需要科学可靠的数据,协同一些商业嗅觉和伦理训练,以及一些未预料后果、激励倒错和非理性决策行为的深度学习(或行为经济学101)。
随着我们持续地增加大数据源,以及在大规模地部署机器学习算法,那些拥有处理能力的人不能忘记这其中也有人类的影响因素在里面(也包含了我们自己)。