2022-04-27 11:37:28
剧本杀是干什么的 https://www.td010.com
掐指一算,距离2月底的俄乌冲突爆发,已经过去快两个月。
这段时间,小雷和哔哥没闲着,一有空就紧盯事件的进展情况。
想着针对冲突中的一些科技事件,给不了解情况的小伙伴解读一番。
不得不说,这场战争是很残酷的,各方制裁轮着来,让俄罗斯喘口气都难。
比如某些国家地区,在经济方面搞事儿,限制了和俄罗斯的经济和贸易往来。
全球科技巨头更是纷纷断供,整得俄罗斯在科技和互联网这两块儿,也吃了瘪。
更别说还有一些奇奇怪怪的制裁,甚至连俄罗斯的猫猫狗狗,都无辜躺枪。
大伙如果觉得这些制裁已经到顶,可就大错特错,战争的残酷程度远超咱们想象。
这不,最近小雷刷着新闻,就刷到了一条关于“人脸识别”的恐怖消息!
而这次搞事的对象,不是美国和西方,而是这场冲突的另一方——乌克兰。
乌克兰+人脸识别这组合,能搞出什么离谱操作呢?今天小雷就带大伙瞧瞧。
乌军扫描阵亡俄军人脸
“人脸识别”这操作,大伙应该再熟悉不过,识别身份and刷脸付款时都会用到。
然鹅这次,乌克兰方却把人脸识别搬到打仗上,用作了“军事打击手段”。
自从俄乌冲突开始,美国科技公司ClearviewAI,就主动向乌克兰方提供面部识别软件。
软件功能贼强大,乌方利用它对俄罗斯士兵,进行了超过8600次面部识别搜索。
除了被俘的,甚至连死亡的士兵,都能使用人脸识别来辨认尸体。
如果说是为了获取情报,利用人脸识别身份,放在战争里看其实也是一种手段。
但是,小雷要说但是了嚯,这件事远远没有看上去的这么简单。
乌克兰士兵拍摄俄罗斯士兵尸体图源:美联社
利用ClearviewAI的人脸识别软件,一些乌克兰的黑客和志愿者,组成了乌克兰IT大军(ITArmy)。
就在这个月,乌克兰IT军在Telegram上,发布了一段让人觉得不寒而栗的视频。
视频里,IT军表示已经通过ClearviewAI人脸识别软件,识别出俄罗斯士兵的尸体。
并且联系了582名俄罗斯士兵的家属,还给他们发送了阵亡士兵尸体的照片。。。
好家伙,人脸识别身份就算了,还给家属发送尸体照片,这是什么下头操作?
不仅炫耀发尸体照片,乌克兰IT大军还公布了,和俄罗斯家属的部分对话。
其中有一个俄罗斯母亲,她看到血淋淋的尸体照片后,歇斯底里地质问:
“你为什么要这么做?你想让我死吗?我已经活不了了。”
然而IT大军却觉得自己是“正义化身”,回复道:“这就是你把人送上战场的后果。”
图源:《华盛顿邮报》
ClearviewAI是什么来头?
乌克兰IT大军能这么搞,关键还是靠了ClearviewAI的人脸识别技术。
问题来了,ClearviewAI公司到底是什么来头,人脸技术怎么这么牛X?
介绍一下,ClearviewAI是美国一家人脸识别的初创公司,成立于2016年。
只要上传一张人脸照片,就可以得到这个人,在其他社交网站上的照片资料。
目前,通过在社交平台和互联网其他地方的收录,数据库已经有200亿张图片。
小雷查了一下,数据库中有20亿张图片,是来自于俄罗斯社交平台VKontakte。
So,通过这技术,乌IT大军就能轻松知道俄罗斯士兵身份,还有家属联系方式。
不过大伙估计猜不到,其实一开始,ClearviewAI是为美国警察和FBI提供服务的。
用途非常正经了属于是,主要是用来验证犯罪嫌疑人,或者证人的身份是否属实。
依小雷看啊,ClearviewAI这次愿意掺和俄乌冲突,主要有两方面的原因。
一方面,乌克兰方把IT大军,发尸体照片给家属的这种操作,叫作“心理战”。
他们认为针对阵亡士兵家属的心理打击,能打击俄军的积极性,早日结束战争。
另一方面,ClearviewAI也可以通过这事儿,大力推广自家产品技术,变现挣钱。
技术是把双刃剑
别看ClearviewAI跟美国官方有合作,其实从成立以来,它的日子就过得磕磕绊绊。
ClearviewAI在Facebook、Twitter、Instagram等社交平台,收集了上百亿的图片。
而收集了大量的图片后,ClearviewAI还会利用人脸识别算法,对图片进行处理。
然鹅这里有一个大前提,收集图片这事儿,ClearviewAI就没得到过用户的同意。
So,自从ClearviewAI出现在公众视野,围绕它的争议就一直没有停过。
小雷瞅见嚯,它和官方组织打官司、被罚巨款,都可以说是家常便饭了。
去年5月,好几个欧洲人权组织对ClearviewAI提起诉讼,指控其违反了有关保护个人数据的法律。
同年11月,英国信息专员办公室,对ClearviewAI没有遵守国家数据保护法,罚款2260万美元。
今年3月,因为违规收集意大利用户的生物特征信息,意大利隐私监管机构对ClearviewAI处以2000万欧元的罚款,还被责令删除。
小雷觉得,ClearviewAI在用户不知情的情况下,违规收集图片,已经做得不对。
如果把这项人脸识别技术,用在打击违法犯罪上,估摸着还能少挨点喷。
然而现在竟然用到战争里,用来攻击士兵无辜的家属,多少就有点不人道了。
技术本是中立,但是如果有人“用心险恶”,那大概率只会造成更大更深的灾难。
科技公司要挣钱能理解,只是抛开人道主义一味追求利益,最终只会反噬自己啊。