10月5日,脸书前员工弗朗西丝·豪根在参加美国国会参议院商务委员会下属消费者保护小组委员会的听证会时,对脸书进行猛烈抨击并请求国会对脸书采取行动。
她指责脸书为追求利润而鼓励“愤怒、两极分化和分裂的内容”。她指出“脸书”及其旗下多款社交媒体产品正在伤害青少年群体,并进一步加剧了社会的分裂。而为了达到目的的“神器”则是一种专门的AI算法。
为牟利不择手段,明知故犯
在与《华尔街日报》分享了大量内部文件中,弗朗西丝·豪根反复提到致力于产品优化的脸书,却采用了放大仇恨言论的算法。虽然此前脸书致力于反对仇恨言论,但现在看来更像是在自欺欺人。
作为一名数据分析师,她之前曾在谷歌、脸书等多家美国互联网巨头企业任职。而在“脸书”工作期间发现公司在处理用户数据和运营策略方面存在不少问题,对此不认同的她选择了将这一情况公之于众。
弗朗西丝·豪根表示,脸书在明明知道这些问题和后果的前提下却为了利润刻意向外界隐瞒了这些信息。为了攫取更高的广告效益,脸书发现最好的参与方式便是向用户灌输恐惧和憎恨。
该算法根据你过去接触最多的内容类型来推送信息,通过参与度优化内容。这与脸书一再声称的正在帮助阻止仇恨言论的行动背道而驰。
黑暗AI算法:拿仇恨换流量
你用手机滑动五分钟,可能只能看到100条内容。但是脸书可以向你展示成千上万种选择。
而脸书挑选内容的结果之一是优化能够获得用户粘性的内容。但研究表明,仇恨、分裂、两极分化的内容,更容易激起人们的愤怒,而不是其他情绪。错误的信息、愤怒的内容更容易吸引人们并保持用户粘性。
豪根还认为,正是脸书的不作为导致了2020年总统大选时的混乱和今年1月国会大厦遭冲击事件!
除了Facebook,其危害也带到了“INS”上。一项研究表明,13.5% 的青少年说“INS”让自杀的想法更糟糕; 17% 的青少年说“INS”让情绪变得更糟糕。
最令人痛恨的是,“脸书”公司在明知道自己的产品存在问题和后果的情况下,为了谋求高额利润,选择故意向外界隐瞒这些信息!
对于豪根在听证会上的指控,“脸书”公司方面目前一律予以否认,据此脸书北欧地区副总裁史蒂夫·哈奇回应到,“当世界上存在仇恨时,脸书上也会存在仇恨。”这一不负责任地推脱让人嗤之以鼻。
其实这已经不是“脸书”第一次面临公众的信任危机。近年来,政府曾多次表示要对包括“脸书”在内的多家社交媒体平台进行监管,但这些表态最终都不了了之。如果人工智能终将对社会造成严重破坏,那么索菲亚宁愿让它不复存在。因为AI是“爱”,而不是“恨”。
领取专属 10元无门槛券
私享最新 技术干货