美國(guó)下任總統(tǒng)由算法選出選民能同意嗎?
AI能替代人類?美國(guó)下任總統(tǒng)由算法選出選民能同意嗎?據(jù)Techcrunch報(bào)道,想象下2020年的場(chǎng)景:屆時(shí)你的個(gè)人AI助理將以友好的方式將你喚醒,并幫助準(zhǔn)備好你最喜歡的早餐。在你晨練時(shí),它會(huì)按照你的音樂品味播放曲目。在你乘坐無人駕駛通勤車輛上班時(shí),它已經(jīng)按照通勤時(shí)間長(zhǎng)短以及過去的習(xí)慣為你選好文章。
你可能讀到這樣的新聞,意識(shí)到即將進(jìn)行總統(tǒng)大選。基于你此前表達(dá)的政治觀點(diǎn)和所在州的其他選民數(shù)據(jù),AI助理會(huì)為你提供預(yù)測(cè)模型,提醒你為民主黨提名人投票。手機(jī)上彈出的信息會(huì)詢問你,是否需要AI助理幫助你處理文書工作,并代表你進(jìn)行投票。如果你選擇同意,剩下的事情可完全交給AI助理,你可以繼續(xù)自己的生活。
AI與數(shù)據(jù)同樣重要
我們正進(jìn)入一個(gè)AI無所不在的世界。盡管個(gè)人AI助理已經(jīng)成為現(xiàn)實(shí),但對(duì)于許多人來說,AI代表我們行使某些重要的公民權(quán)利依然是不可想象的,即使AI助理可能知道每時(shí)每刻什么對(duì)我們最好。如果獲得足夠數(shù)據(jù),AI助理可以提供更加精確和個(gè)性化的建議,這些建議甚至遠(yuǎn)超我們最親密朋友的忠告。
然而,機(jī)器的智能潛力經(jīng)常導(dǎo)致人們產(chǎn)生恐懼。研究顯示,34%的人害怕AI崛起,24%的人認(rèn)為AI將會(huì)對(duì)社會(huì)產(chǎn)生傷害。GWI發(fā)現(xiàn),63%的人擔(dān)心科技公司如何利用他們的數(shù)據(jù)。而牛津大學(xué)網(wǎng)絡(luò)學(xué)院最近研究也發(fā)現(xiàn),人們對(duì)將自己的個(gè)人生活完全交給AI助理處理感到猶豫不決,特別是當(dāng)AI助理在未提供透明理由時(shí)即幫助我們做出決定時(shí),盡管它們可從不同替代方案中選擇最佳方案。
沒必要將數(shù)學(xué)與魔術(shù)進(jìn)行混淆。AI并非被住在你手機(jī)中的神秘生物操作的,它們就像代理人,擁有自己的議程。但我們常常忘記的是,這種看似無形的數(shù)學(xué)模型是其他人利用我們此前已有的個(gè)人數(shù)據(jù)設(shè)計(jì)的,可以不斷對(duì)我們的興趣、位置、行為、財(cái)務(wù)以及健康等進(jìn)行自動(dòng)推測(cè)。
人類開發(fā)者的角色
許多當(dāng)前有關(guān)算法的文化爭(zhēng)論都是都圍繞著人類在算法設(shè)計(jì)中所發(fā)揮的作用展開的。也就是說,無論開發(fā)者的潛意識(shí)信仰或偏見,都可能被編入可幫我們做出決定的算法中。新聞行業(yè)對(duì)此充滿了擔(dān)憂,因?yàn)殚_發(fā)者可能編碼他們的算法,在某種程度上允許歧視某個(gè)特定種群的行為存在。更糟糕的是,技術(shù)平臺(tái)正充當(dāng)通過它們的信息的守門人。
正如約翰·曼尼斯(John Mannes)所說的那樣:“有偏見的世界可能產(chǎn)生有偏見的數(shù)據(jù)集,相反也會(huì)產(chǎn)生有偏見的人工智能框架?!背诌@種觀點(diǎn)的決策者和學(xué)者往往會(huì)產(chǎn)生誤解,忽視了算法中存在誤差率的明顯事實(shí)。他們譴責(zé)開發(fā)算法的人,而非算法本身。當(dāng)然,尋找其他人的錯(cuò)誤是人類本能,特別是在你不了解當(dāng)前技術(shù)的內(nèi)在工作原理時(shí)。
但是算法偏見實(shí)際上很少來自其人類開發(fā)者。在大多數(shù)情況下,它產(chǎn)生自被用于訓(xùn)練算法的數(shù)據(jù)。
算法決定論
讓我們首先回顧下機(jī)器學(xué)習(xí)技術(shù)的工作原理。通過運(yùn)用統(tǒng)計(jì)學(xué)習(xí)技術(shù),程序員開發(fā)出計(jì)算模型,它可以自動(dòng)識(shí)別數(shù)據(jù)中的模式。為了實(shí)現(xiàn)這個(gè)目標(biāo),模型需要被使用大量數(shù)據(jù)訓(xùn)練,以便在數(shù)據(jù)中確定界限和關(guān)系。訓(xùn)練模型使用的數(shù)據(jù)越多,預(yù)測(cè)的準(zhǔn)確率就越高。
在個(gè)性化數(shù)字應(yīng)用的背景下,這些統(tǒng)計(jì)學(xué)習(xí)技術(shù)被用于開發(fā)算法,以便識(shí)別用戶身份,這包括幾個(gè)方面,比如模式、品味、喜好、人格特質(zhì)以及他們的社會(huì)圖結(jié)構(gòu)等??墒牵@種數(shù)字識(shí)別并非直接基于用戶的人格或自我意識(shí)而開發(fā)的。相反,它們基于可測(cè)數(shù)據(jù)點(diǎn)的收集和機(jī)器解釋方法。換句話說,在AI眼中,無論多么復(fù)雜,體現(xiàn)用戶身份正被不完美的數(shù)字取代。
但是AI在其計(jì)算中只能使用歷史追蹤數(shù)據(jù),然后利用其預(yù)測(cè)用戶需求,以及預(yù)測(cè)其將來。這也是為何利用美國(guó)前總統(tǒng)圖像,神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)共和黨總統(tǒng)提名人唐納德·特朗普(Donald Trump)將會(huì)贏得大選的原因,畢竟這些訓(xùn)練都是基于男性總統(tǒng)進(jìn)行的。因?yàn)閿?shù)據(jù)庫中還沒有女性總統(tǒng),如果模型中不存在性別相關(guān)性,AI就無法做出推斷。實(shí)際上,如果這種特定AI能夠選擇下任總統(tǒng),它會(huì)為特朗普投票。
這些推論導(dǎo)致越來越多的確定性的推薦系統(tǒng),它傾向于加強(qiáng)現(xiàn)有信仰和類似社交媒體信息流中“回聲室”的做法。預(yù)測(cè)發(fā)現(xiàn)應(yīng)用公司Random的聯(lián)合創(chuàng)始人雅爾諾·米卡埃爾·高波倫(Jarno Mikael Koponen)表示,個(gè)性化以諷刺性的方式模仿我們,在我們真正的興趣與它們的數(shù)字反映之間形成鴻溝。與此同時(shí),這位《Netflix Effect》的作者還解釋稱,個(gè)性化推薦系統(tǒng)往往引導(dǎo)用戶關(guān)注這些內(nèi)容。隨著時(shí)間推移,這種情況變得越來越普遍和明顯,這也是算法決定論被認(rèn)為有害的重要理由。
身份變化無常
我們的身份是動(dòng)態(tài)而復(fù)雜的,包含了許多矛盾。在社會(huì)現(xiàn)實(shí)中,我們可能需要有不同的行為表現(xiàn),同時(shí)需要從AI助理處獲得不同形式的幫助,比如在學(xué)校、辦公室、酒吧或教堂等。
除了默認(rèn)的自我展示,還有許多原因可以解釋,為何我們?cè)诓煌娜穗H網(wǎng)絡(luò)中需要不同的身份。我們想讓自己完全融入社交網(wǎng)絡(luò)嗎?抑或是我們會(huì)發(fā)現(xiàn)新的社交空間,遠(yuǎn)離我們的朋友或家人的窺探?如果我們嘗試不同的角色和不同的身份,會(huì)發(fā)生什么?正如4chan創(chuàng)始人克里斯·珀?duì)枺–hris Poole)所說:“這并非關(guān)于你與誰分享,而是你作為誰來分享。身份就像個(gè)棱形柱,人們通過許多鏡頭來看你!”
對(duì)于AI來說,區(qū)分這些不同層次的自我,并將它們映射到不同的社會(huì)環(huán)境中是個(gè)巨大挑戰(zhàn),因?yàn)樗鼈兺挥?xùn)練為識(shí)別單一的用戶身份。有些時(shí)候,我們甚至都不知道自己是誰。但是我們的AI助理總能幫助找到答案:因?yàn)樗鼈兛偸窃谧R(shí)別昨天的我們。改變?cè)絹碓嚼щy,我們使用的模式和信仰系統(tǒng)正陷入自我強(qiáng)化循環(huán)的危險(xiǎn)中,就像算法的“土拔鼠日”。
我們?nèi)粘I钪性揭蕾噦€(gè)性化算法,它們?cè)綍?huì)依據(jù)我們看到的、讀到的、談?wù)摰囊约叭绾紊畹刃畔⑿纬伞Mㄟ^堅(jiān)持不懈地專注于現(xiàn)狀,它們推薦我們閱讀的新書、觀看的電影以及會(huì)見的人,都是依據(jù)我們以前的興趣確定的,只能幫我們重復(fù)昔日的滿足感。
當(dāng)你的未來受到過去限制時(shí),通過自發(fā)的開放思維和試驗(yàn)開發(fā)個(gè)性化就會(huì)變得越來越難。在這種情況下,我們開發(fā)出算法,而算法反過來又會(huì)重塑我們!
2898站長(zhǎng)資源平臺(tái)友情鏈接交換:
http://stoptheftofyouridentity.com/friendchange.htm