算法預測過於精准,會觸碰道德底線嗎?

智源社區 2021-09-18 17:41:20 阅读数:324

算法 精准 道德

機器學習可以探知你的許多秘密——包括最敏感的信息,比如預測你的性取向、是否懷孕、是否要辭掉工作,或者可能命不久矣。

那麼,機器是真的“知道”你的秘密,還是僅靠猜測?如果機器只是像人一樣進行推測,那這麼精確有錯嗎?

美國塔吉特百貨(Target)對孕婦的預測,或許是算法探知人類秘密最知名的用例之一。2012年,《紐約時報》的一篇文章講述了企業可以如何利用手中的數據,文章中有一則趣聞:一名父親看到塔吉特百貨給女兒發送帶有明顯指向性的嬰兒用品優惠券,才得知十幾歲的女兒懷孕了。

這個故事可能是虛構的,即便真發生過,根據文章對塔吉特百貨工作流程的詳細解讀來看,也可能只是巧合,而非預測性分析。不過,預測技術的確存在隱私風險。畢竟,如果一家公司的市場部門能够預測出誰懷孕,就代錶其查看了非自願提供的敏感醫療數據,但其實只有受過專業培訓的醫護人員才能妥善處理和保密這類數據。此類信息的獲取途徑如果得不到妥善管理,將對個人生活產生巨大影響。這不是數據處理不當、泄露或被竊取的問題,而是產生新的數據——即間接發現人們不願意披露的真相

因此,預測模型的錶現過於優异,是否反而對我們不利?我們知道,模型預測不准確會造成損失,但過於准確是否也不太好?

研究錶明,預測性模型還可以通過Facebook點贊等痕迹,識別出其他隱私屬性——比如種族和民族。利用預測性技術對不同民族實施差別對待,將風險提昇到了一個新水平。

給機器學習所追求的預測性目標劃清道德界限,是一個艱巨的挑戰,要准確劃定應該立法禁止的部分(如果有的話)更是難上加難。但是,我們至少要保持警惕,注意機器學習何時會助長早已存在的不道德行為,以及要何時小心處理其產生的數據。

版权声明:本文为[智源社區]所创,转载请带上原文链接,感谢。 https://gsmany.com/2021/09/20210918174119992x.html