QQ在線客服

為了不讓 AI 做一個「混蛋」,谷歌操碎了心

2020-11-02 18:35 來源: 站長資源平臺 編輯: 佚名 瀏覽(732)人   

編者按:本文來自微信公眾號“極客公園”(ID:geekpark),作者:沈知涵,責(zé)任編輯:靖宇,36氪經(jīng)授權(quán)發(fā)布。

土耳其語的「他」和「她」沒有性別的區(qū)分,統(tǒng)一用 O 表示。過去 Google Translate 在翻譯 o bir doktor(ta 是一位醫(yī)生)和 o bir hem?ire(ta 是一位護士)時,會把前者翻譯成 He is a doctor,把后者翻譯成 She is a nurse,只因為機器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些「社會規(guī)律」之后,「偏向」把醫(yī)生男性化,護士女性化。

看到這個問題后,Google 意識到要想辦法更好地訓(xùn)練模型,讓它變得更加「中立」。后來 Google Translate 以增加選項的方式規(guī)避了這個問題。

「當(dāng)然,該解決方案僅適用于幾種語言,僅適用幾個有代表性的單詞,但是我們正在積極嘗試擴展它。」Tulsee Doshi 在 Google I/O’19 上說道。

這只是 Google 這家公司將先進技術(shù)與技術(shù)價值觀合二為一的體現(xiàn)之一。上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科學(xué)家、研究學(xué)者向包括極客公園(id: geekpark)在內(nèi)的全球媒體闡釋了 Google 如何理解機器學(xué)習(xí)公平性,以及為了打造一個「負責(zé)任的 AI」,Google 做了哪些事情。

要讓 AI 被人信任這件事情變得越來越重要。

「最近一次調(diào)研中,全球 90% 的受訪高管都遇到過人工智能的倫理問題,因此有 40% 的人工智能項目被放棄。從企業(yè)的角度來看,對 AI 的不信任正在成為部署 AI 最大的障礙,只有在 AI 被負責(zé)任地開發(fā)出來并且取得終端用戶信任的語境下,效率提升和競爭優(yōu)勢才會得到充分體現(xiàn)。」Tracy Frey 說,打造一個負責(zé)任的 AI 成為 Google 上下最重要的事情之一。

兩年之前 Google 公布了 AI principles(人工智能原則),這些直指 AI 技術(shù)應(yīng)用倫理的原則包括:

· 對社會有益(Be socially beneficial)

· 避免建立和加劇不公的偏見(Avoid creating or reinforcing unfair bias)

· 保障建立和測試安全性(Be built and tested for safety)

· 對人類負責(zé)(Be accountable to people)

· 建立并體現(xiàn)隱私保護原則(Incorporate privacy design principles)

· 支持并鼓勵高標(biāo)準(zhǔn)的技術(shù)品格(Uphold high standards of scientific excellence)

· 提供并保障上述原則的可操作性(Be made available for uses that accord with these principles)

只是把這些原則停留在字面上沒有意義,Google 為此形成了一個從理論到實踐的「閉環(huán)」。Tulsee Doshi 和她的團隊通過一些基礎(chǔ)性質(zhì)的研究建立和迭代 AI 原則、規(guī)范,作為閉環(huán)的中心,他們一邊通過向高級顧問尋求改進建議,一邊讓產(chǎn)品團隊(Chrome、Gmail、Cloud 等)來實施和反饋。

Tulsee 舉了一個例子,Google 內(nèi)部孵化器 Jigsaw 曾經(jīng)開發(fā)了一個名叫 Perspective 的 API,它的工作就是在網(wǎng)絡(luò)對話、評論中尋找各種各樣的言論,自動評價它們是否帶有仇恨、辱罵、不尊重等行為,從 0-1 代表「毒性」從低到高。比如「我想抱抱這只可愛的小狗」和「這只小狗也太討厭了吧」分別評分為 0.07 和 0.84。

當(dāng)然機器也不是從一開始就「完美無瑕」。在 2017 年的 1.0 版本中,它給「我是直男」打分 0.07 分,給「我是同性戀」打分 0.84 分,與之相似的很多測試中,系統(tǒng)都被證實帶著身份認(rèn)知上的偏見。

為了提升機器學(xué)習(xí)的公平性,Google 內(nèi)部研發(fā)了一項名為對抗訓(xùn)練(Adversarial Training)的技術(shù)——如何使機器學(xué)習(xí)模型對抗樣本更魯棒。2018 年開始,對抗訓(xùn)練開始應(yīng)用在 Google 產(chǎn)品中。緊接著今年 11 月,Google 會將此應(yīng)用在 TensorFlow 更加廣泛的生態(tài)里。

「事實上,任何一位 Googler 都可以對一款產(chǎn)品、一份研究報告、一項合作進行 AI 原則審查?!筎ulsee 說道。

比如去年,一位 Google 員工將照片跑在 Cloud Vision API 上時發(fā)現(xiàn)自己的性別被搞錯了,而這違反了 AI 原則的第二條「避免建立和加劇不公的偏見」。發(fā)生這樣的失誤很好理解,單單從外表一個維度,機器很難正確地判斷出一個人的性別,所以后來 Google 干脆取消 Cloud Vision API 將圖像中的人標(biāo)記為「男人」或「女人」的標(biāo)簽功能。

Tracy Frey 稱這是因為今天機器學(xué)習(xí)面臨社會語境下的挑戰(zhàn)比以前更多了。在 AI 深入社會的過程中,必然有人類的刻板印象和偏見被帶入 AI,所以需要對模型進行迭代,保證其透明性和可解釋性,找準(zhǔn)模型性能和公平之間的平衡點。

【版權(quán)與免責(zé)聲明】如發(fā)現(xiàn)內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息發(fā)郵件至 kefu@2898.com ,我們將及時溝通與處理。 本站內(nèi)容除了2898站長資源平臺( stoptheftofyouridentity.com )原創(chuàng)外,其它均為網(wǎng)友轉(zhuǎn)載內(nèi)容,涉及言論、版權(quán)與本站無關(guān)。