Excavating AI: The Politics of Images in Machine Learning Training Sets 和Humans of AI 后。我产生了在普世价值观下比较悲观的想法。也就是,我认为在收集数据库的过程中,以及训练AI过程中文章提到的可能对某些群体或者人类整体带来的伤害以及偏见是符合人类天性的,不可避免的,我们作为一个集体共同选择的。而人类身为个体的利益往往会被人类身为群体的利益取代。首相我想谈到的是我以摄影师身份对于西方面相学历史的理解。首先,面相学的兴起大概在维多利亚时代的欧洲,人们会简单的根据另外一个人的外貌,骨像来简单的推断这个人的性格以及能力。这个时代同时发生的,是人们更大规模现代城市的出现,如同巴黎,以及公共交通的出现。所以对于很多人来说,他们从一个知根知底的农村或者小集团迁移到一个以陌生人为群落的大集团的过程中,急需一个快速的知识来判断他们面临的陌生人的“底细”。当然,这个过程的精确度并不需要很高,因为在城市中的人每天会面临大量陌生人,所以面相学只要保佑一定的正确率“如同百分之四十”,对于人们来说就足够有效了。比如说,我看到一个满脸伤疤的人,我判断其为穷凶极恶的犯人,从而远离。即便判断错了,对我的损失也很小。当然也会有别有用心的人利用人们的先验判断失误来谋取利益,但是宏观来看这毕竟是较小概率,因为我们并不生活在一个完全由骗子组成的社会里。所以快速判断一个人的底细,还是利大于弊的。所以这个行为产生的偏见一直根深蒂固的遗留到现在,导致我们的任何数据库中,都有着这种感觉浮躁的错误。第二,我认为自从这大集体出现后,自然就会有个类似政府的管理组织出现,服务于宏观的调整。假设政府是理想的(排除腐败,权力失控等原因),我认为政府就是人类集体用来做电车难题的机器。也就是要保证一个行为或者决策足够有效,也就是平衡成本和利益。训练一个模型的成本无疑是高昂的,首先我觉得把一个模型训练不hurmful 或者不bias,首先我觉得在逻辑上就是不可能的,其次对于政府或者大型商业集体来说,这个模型只要足够有效,保证利益就好。举个例子来说,东京奥运会就真的使用了很多视觉模型来判断所谓的可能的有潜力的伤害行为。我觉得这个模型能剩下的人工成本相比模型对于某些个体行为的误判产生的成本来说,还是很巨大的,因为现在不断有大型商业活动开始使用视觉模型来参与安检。理想情况下,这些成本会被调配到效益更高的环节中,所以这个发展过程中被牺牲掉的安检工位以及错判案例,是不可避免的。当然我个人也是觉得这种维多利亚科学遗风会对我们产生极大的负面冲击,一切只是概率问题。但是这也都是我们身为人类集体共同选择的,所以那天我们被机器所取代,也是我们的选择,虽然不是我的选择。