在微博世界里,2018年无疑是王思聪年。
然而,击碎微博的,有可能也是王思聪。

 

简而言之,王思聪IG夺冠庆祝抽奖在11月11日开奖了,细心网友发现中奖的113人里,只有一个人微博用户标记为男生,其余全部都是女生。

 

还不止,这个唯一标记为男性的微博用户,平时的微博画风也是很妹子的。

 

同时,这113个用户里,有78%使用的是苹果手机。

 

结果令人震惊,网友们开始推测微博抽奖平台是否隐藏着什么规则。

 

于是,有聪明的网友做了一个试验,试图用微博自己的规则来证明自己的漏洞:

  • 用微博抽奖平台发起抽奖,鼓励大家转发,建议用户记住转发时已有的转发数量;
  • 在转发达到一个确定数字时开奖,设置中奖人数>转发人数,理论上转发全员皆可中奖;
  • 如果并非如此,那么不言自明。

果然结果不出意料。1.5万人转发,开奖人数为2万,理论上应该是全员中奖,但最终开出来结果中奖者是9413人。

 

不仅如此,网友们还发现,最近的大型抽奖活动,中奖者也都为女性:

  • 苏宁手机抽15人,15女0男
  • 天猫抽10人清空购物车,10女0男
  • IG夺冠抽113人,112女1男
  • 天猫锦鲤,女
  • 中国锦鲤,女

对此,新浪微博CEO王高飞(@来去之间)的解释是,为了避免抽到中奖机器人,会对用户进行一个辨别,平时只转发不原创,不爱发图,不活跃的,等等等等,会被认为是疑似机器人,也就被筛出去了…

 

所以照新浪的说法,喜欢默默潜水,偶尔转发、活跃度不高的的用户,其中包括众多男性用户,就被这样所谓“降权”了。

 

网友很愤怒,出于对公平和透明的失望和价值观的破碎。

 

我认为,这样一件事情其实并不仅仅简单地归结于不公平,或者是利润为先价值观。我们需要了解的是,算法在解决越来越多难题的同时,也接管了人类让渡的部分裁判权。

 

美国的数据科学家凯西·奥尼尔在自己的一次TED演讲中,非常清晰地聚焦并坦陈了隐藏在算法的秘密。

(数据科学家,mathbabe.org的博主。博士毕业于哈佛大学,主修数学专业。)

 

1

算法无处不在

算法将人群区分开来,简单来说分为成功者和失败者,更复杂的就是深度的细分。在这样一种区分下,“成功者”得到好处,也许是一个更好的工作机会,或者是一个很好的会员优惠计划;而“失败者”可能一无所获,甚至连面试的机会都没有,或者要为保险付出更多的保费。

 

凯西称之为“不理解的秘密公式”。

 

(天猫88VIP计划,淘气值1000分以上可以88元购买,而不到的用户需要付出10倍的价格)

 

算法并不神秘,我们每一个人都常常在生活中用到它。大家熟悉的统筹法,其实也是一种算法的应用,只是我们没有把它写成书面的代码而已。

 

基本上,建立算法需要两个元素:

  1. 数据,例如过去发生的事情
  2. 对于“成功“的定义,即你希望得到的东西和实现的目标

通过观察和学习,你能够更加理解算法,找出与成功相关的因素。关键在于,当你在负责这样一件事情的时候,你就可以让自己的意见变得重要。也就是说,你定义了“成功”。

 

2

算法是嵌在代码中的观点

了解这一点,就理解了微博抽奖本身运用了算法来筛选并给部分用户降权,是内部权衡了让商家使用抽奖(不能每次抽奖都出现一堆僵尸号)和公平(每个用户的权重一致,无论是不是僵尸号)的结果。

 

这个观点与很多人对算法的看法不同。

大家通常会认为算法是客观、真实和科学的,因为数据是客观的。但大家没有意识到的是,规则在对数据的结果起作用。

 

凯西把它称之为,为了让你信任和恐惧算法的营销手段

 

为什么对算法既信任又恐惧,因为人们信任和恐惧数学。因此,当对数据盲目信任时,结果就有可能出现错误。凯西举了一个例子,用来说明这一点。

 

2011年,美国一位被学校和学生都予以好评的老师沙拉·委索奇被解雇了。原因是它任教班级的阅读和数学成绩没有实现预期增长。而得出这个结论的,是一个叫做“IMPACT”的教师评价系统。

 

这个系统是华盛顿特区从2007年开始使用的,目的是用来进行教育改革,它通过琳琅满目的指标和一个极其复杂的回归方程,组成一个“增值模型”,自动为每位教师打分并决定其命运。

 

更加糟糕的是,纽约邮报提出了“信息自由法”的要求,得到所有老师的名字与他们的分数,并且他们以羞辱老师的方式发表了这些数据。


当得知这件事情后,凯西想去试图分析这个公式,但她发现居然没有人有权利获得这个公式。然而,一个名叫加里.鲁宾斯坦的聪明人,从纽约时报的数据中找出了665个教师,将他们的得分做成图表,得出了以下的样子:

(如果没有人解释,这看上去更像是一个随机数生成器,但它的确是被使用并且决定了很多人的命运。)

 

所以,算法是一种工具,它在使用的时候不可避免地被加入了观点和态度,如果轻率、盲目地、或者是利益驱使地运用算法,不会让事情变得公平,它只会重复过去的做法和规律,然后让现状自动化。

 

3

偏见可以被注入算法中

我们都是有偏见的,无论是性别、年龄、种族、地域、财富…不管是否承认,都或多或少地存在于我们对一件事情或者一个人的判断中。对此社会学家已经做了大量的试验证明了这一点。

 

我们这样就不难了解,微博在筛选中奖用户的时候,已经把“合格”、“有效”的定义写进了规则中。这个定义是谁来规定的?也许是通过记录用户行为、也许是分析购买记录、也许是参考第三方资料,但无论怎样,它肯定是带有一定倾向的结果。这本身就是一个私有公司为了经营目的建立的私有算法。

 

算法整个远比这些说的要复杂得多。但当你参与到了其中,例如你参与到了微博抽奖平台的某一次抽奖中,你就已经进入到了它制定的规则环境里。网友们被伤害了感情,因为这种筛选方式如果放在现实中,就是一种赤裸裸地舞弊,而在线上,它穿上了一件不透明的外衣。

 

4

算法创造者的责任

我们生活在这样一个越来越依赖“算法”的时代,它的应用在诸多领域极大地推动着人类社会的进步。因此,我们更加需要富有社会责任感的企业,认真地考虑算法的长期结果和正在产生的反馈循环。

 

往小的方面说,我们在线上媒体上的浏览记录,将影响着接下来我们看到的些什么,因为我们的“兴趣”在不停地被分析中,这些依赖并不会引起非常大的危机。

 

但当涉及到重大的事件,我们期望的是具有社会责任感的企业和数据科学家们,不应该成为真相的仲裁者,而应该成为大社会中所发生的道德讨论的翻译者。

 

而其余的我们,需要更主动地去了解世界发生了什么,主动问责,而不是被动地接受


以及,学好数学。


 

更多有价值的资讯,欢迎关注远韬科技。

 

远韬科技——致力于数字化转型和品牌价值传递

我们坚信

Value shall be paid for

我们希望

与用心做产品、认真树品牌的企业同行和共赢