上海砍人2022最新资讯1700名科学家联名反对AI威胁论Nature将发表罪犯识别研究新进展

  • 手机
  • 2025年01月24日
  • 在上海的街头巷尾,一个沉默而神秘的故事正在悄然展开。2022年的某个夜晚,一份令人震惊的公开信在网络上悄无声息地蔓延,其内容涉及1700名科学家联名反对一项即将发表的人工智能研究,这份研究将被刊登在Springer Nature上。这个1700名科学家的团体,不乏来自MIT、NYU、哈佛等著名学府以及Google、DeepMind、微软等知名企业的顶尖学者。 他们共同致力于了一项名为《A

上海砍人2022最新资讯1700名科学家联名反对AI威胁论Nature将发表罪犯识别研究新进展

在上海的街头巷尾,一个沉默而神秘的故事正在悄然展开。2022年的某个夜晚,一份令人震惊的公开信在网络上悄无声息地蔓延,其内容涉及1700名科学家联名反对一项即将发表的人工智能研究,这份研究将被刊登在Springer Nature上。这个1700名科学家的团体,不乏来自MIT、NYU、哈佛等著名学府以及Google、DeepMind、微软等知名企业的顶尖学者。

他们共同致力于了一项名为《A Deep Neural Network Model to Predict Criminality Using Image Processing》的研究论文。这篇论文由美国哈里斯堡大学的一群研究人员撰写,他们声称开发出了能够预测某人是否可能成为犯罪分子的自动计算机面部识别软件,并且该软件具有80%的准确性,只要从其面部图片中提取特征即可预测。

然而,这次事件背后隐藏着更深层次的问题——人们对AI技术中存在公平性问题和AI威胁论长期以来就有的担忧。当数据有偏差时,ML系统也会有偏差。而这次“罪犯识别”模型所使用的训练数据正是如此,它们不仅存在种族偏见,而且还可能继承了社会主流文化中的歧视观念。

尽管作者声称算法没有种族偏见,但这并不能解决问题,因为“犯罪”这一概念本身就是带有种族歧视色彩。在Reddit上,有网友评论道:“我们不会逮捕21岁以上饮酒者,而是逮捕他们酒后驾车。”这是因为基于当前数据的算法只会延续目前存在的不公平偏见链。

此类研究不需要故意恶意或种族偏见,它们只是任何领域预期副产品之一,被评估其研究质量之基础上的预测性能。在这样的背景下,“罪犯识别”技术在美国一直处于尴尬境地,黑人女性甚至高达21%-35%错误率,而白人男性则低于1%,这在美国可以说是不正确得很明显。

最终,在这种争议和担忧之下,Springer Nature已经宣布不会发表该论文,但未能回应书籍具体要求。此事如同上海夜幕下的阴影,让人们不得不思考AI技术发展背后的伦理和公平性问题,以及如何避免这些技术成为进一步加剧社会矛盾的手段。

猜你喜欢