觀察偏見對機器學習模型的影響,並探索消除這種偏見的方法。
偏見是指對乙個人、乙個群體或乙個事物的不公平偏見。 隨著機器學習成為我們日常生活中不可或缺的一部分,問題來了,機器學習是否也存在偏見? 在本文中,我將深入探討這個問題及其影響,以及消除機器學習模型中偏見的多種方法。
機器學習的潛力令人印象深刻,它可以為自動駕駛汽車提供動力,在X射線中準確識別癌症**,以及基於我們過去行為的興趣。 然而,雖然機器學習帶來了許多優勢,但它也帶來了許多挑戰。 其中乙個挑戰是機器學習的分類和**存在偏見。 這些偏差不是仁慈的。 根據機器學習模型生成的決策,這些偏見可能會導致各種各樣的後果。 因此,重要的是要了解如何在機器學習模型中引入偏見,如何測試偏見以及如何消除偏見。
用於評估被定罪罪犯的量刑和假釋的工具(compas)是機器學習中偏見的乙個例子。 由於許多監獄人滿為患,希望通過評估來確定不太可能再次犯罪的囚犯。 然後對囚犯進行審查,看看是否可以先釋放他們,以便為新的監禁者騰出空間。 風險評分由大量關於囚犯的問題來定義,包括囚犯的父母是否入獄或他們的朋友或熟人是否入獄(但不包括種族)等問題。
已經發現,這個工具在被定罪的罪犯成為累犯的可能性方面是成功的,但是當種族被引入判斷公式時,就出現了乙個錯誤。 值得指出的是,陪審團仍未做出裁決,因為compas開發公司隨後提供了資料來支援其演算法的結果,但它也指出了是否存在偏見的問題。 這些方法將受到挑戰,隨後需要提供資料以證明其公平性。
機器學習被視為人力資源中各種用例的關鍵工具,從提供培訓建議到招聘和其他戰術活動。 2014 年,亞馬遜開始開發乙個篩選候選人的系統,以根據簡歷上的文字自動識別要尋找的關鍵候選人。 但亞馬遜後來發現,在為工程職位選擇人才時,該演算法似乎更偏向於男性而不是女性。 在發現該演算法缺乏公平性並多次嘗試為其注入公平性後,亞馬遜最終放棄了該系統。
Google 相簿應用可以通過識別物件來對物件進行分類。 但是當人們使用該程式時,他們發現這裡存在某種種族偏見。 亞馬遜的Rekognition是乙個商業面部分析系統,也被發現存在性別和種族偏見。
最後乙個例子是Microsoft的 Tay Twitter 機械人。 Tay 是乙個對話式 AI(聊天機械人),它通過在 Twitter 上與人互動來學習。 該演算法挖掘公共資料以構建對話模型,同時還不斷從 Twitter 上的互動中學習。 不幸的是,並不是所有的Tay的互動都是積極的,Tay已經學會了現代社會的偏見,甚至在機器模型中,這被稱為“播種和得到瓜,播種豆子和得到豆子”。
無論偏見如何,機器學習演算法的建議都會對個人和群體產生真正的影響。 包含偏見的機器學習模型可以幫助以自我實現的方式延續偏見。 因此,當務之急是檢測這些模型中的偏差並盡可能消除它們。
關於偏差的出現,可以簡單地歸因於生成的資料的結果,但其來源難以捉摸,通常與資料**、資料的內容有關(是否包含模型應該忽略的元素? )和模型本身的訓練(例如,如何在模型的分類上下文中定義好壞)。
如果機器學習演算法僅針對白天駕駛進行訓練**,則允許模型在夜間駕駛可能會導致悲慘的結果。 這與人類偏見不同,但也證明手頭的問題缺乏代表性的資料集。
也可能發生我們沒有預料到的偏差。 例如,亞馬遜的招聘工具會懲罰一些候選人使用的詞語,並為其他人使用的詞語加分。 在此示例中,受懲罰的術語是女性常用的性別詞,女性同樣不能充分代表此資料集中的資料。 亞馬遜的工具主要在10年內對男性簡歷進行訓練,這導致了基於男性使用的語言偏向於男性簡歷。
即使是人類也可能無意中放大機器學習模型中的偏見。 人類偏見可能是無意識的(也稱為隱性偏見),這意味著人類甚至可能在自己不知情的情況下引入偏見。
讓我們看看如何檢測機器學習模型中的偏差以及如何消除它們。
在機器學習開發領域的許多領導者提供的工具中,機器學習資料集和模型中的偏見也很常見。
檢測偏差從資料集開始。 資料集可能無法表示問題空間(例如,僅使用白天駕駛資料訓練自動駕駛汽車)。 資料集還可能包含可能未被考慮的資料(例如,個人的種族或性別)。 這些分別稱為樣本偏倚和偏倚。
由於資料通常在用於訓練或測試機器學習模型之前進行清理,因此也存在排除偏差。 當我們刪除個人認為不相關的功能時,就是這種情況。 當收集的訓練資料與生產過程中收集的資料不同時,就會發生測量偏差。 當使用特定型別的相機收集資料集,但生產資料來自具有不同特性的相機時,就會發生這種情況。
最後,還有演算法偏差,它不是來自用於訓練模型的資料,而是來自機器學習模型本身。 這包括如何開發或訓練導致不公平結果的模型。
現在,我已經為您提供了偏差示例,讓我們看看如何檢測和防止機器學習模型中的偏差。 我們將**來自Google,Microsoft,IBM和其他開源解決方案的一些解決方案。
谷歌的假設工具(WIT)是一種互動式工具,允許使用者以視覺化的方式研究機器學習模型。 WIT 現在是開源 TensorBoard Web 應用程式的一部分,它提供了分析資料集和經過訓練的 TensorFlow 模型的能力。 WIT 能夠手動編輯資料集中的樣本,並通過關聯模型來檢視更改的效果。 它還會生成乙個部分依賴關係圖,該圖顯示更改功能時結果如何變化。 WIT 可以應用各種公平性條件來分析模型效能(針對群體無意識或公平機會進行優化)。 WIT 易於使用,並包含各種演示,可幫助使用者快速入門。
IBM 的 AI Fairness 360 是用於檢測和消除機器學習模型中偏差的最全面的工具集之一。 AI Fairness 360 是乙個開源工具集,具有 70 多個公平性指標和 10 多種偏差校正演算法,可幫助您檢測和消除偏差。 偏差校正演算法包括優化預處理、權重調整、偏差去除、正則化項等。 指標包括歐幾里得距離和曼哈頓距離、統計奇偶差等。 AI Fairness 360 包含大量教程和文件。 您還可以使用涵蓋三個資料集(包括 Compas 累犯資料集)的互動式演示來探索偏差指標,然後應用偏差校正演算法來檢視結果與原始模型的比較情況。 該工具集專為開源而設計,允許研究人員新增自己的公平性指標和偏差校正演算法。
IBM的研究人員也在努力實現“人工智慧服務的可組合偏差評級”。該文提出一種用於機器學習模型的偏差評分系統。 此處設想的第三方評分系統用於驗證機器學習模型的偏差。 與Microsoft在自然界中的學習經驗類似,資料集也可能包含偏見。 馬里蘭大學和Microsoft Research最近發表了乙份題為“我的單詞嵌入中的偏見是什麼?”的報告。建立了一種利用眾包識別文字編碼(自然語言)偏差的方法。 詞嵌入可以通過特徵向量表示高維空間中的文字。 隨後,這些特徵向量支援向量算術運算。 這允許與智力遊戲進行類比,例如“男人是國王,女人是x”。 計算x的結果是女王,這是乙個合理的答案。 但從其他類比來看,在某些方面可能存在偏見。 例如,“男人是計算機程式設計師,女人是家庭主婦”反映了性別偏見。 而“父親是醫生,母親是**”也有同樣的問題。 Microsoft已經展示了使用關聯測試自動檢測文字編碼偏差的能力。 這是受到內隱關聯測試(IAT)的啟發,該測試被廣泛用於衡量人類偏見。 這一發現隨後通過使用眾包來確認偏見得到了驗證。
通過這個過程,你可以幫助詞嵌入使用者減少這個資料集的偏差。
在過去幾年中,偏見已成為機器學習研究最熱門的領域之一,用於檢測和糾正模型偏見的框架正在出現。
區域性可解釋的與模型無關的解釋 (lime) 可用於理解模型為什麼提供特定的 **。 Lime 適用於任何模型,並為給定的**提供人類可理解的解釋。
FairML 是乙個工具箱,它通過量化模型輸入的相對重要性來審核模型。 隨後,這種相對重要性可用於評估模型的公平性。 FairML 也適用於任何黑盒模型。
在許多情況下,機器學習模型是乙個黑匣子。 您可以為其提供輸入並觀察其輸出,但這些模型將輸入對映到輸出的方式隱藏在經過訓練的模型中。 可解釋的模型可以幫助揭示機器學習模型得出結論的方式,但在這些模型被普遍應用之前,另一種選擇是人機迴圈。
人機互動是一種混合模型,它將傳統機器學習與監控機器學習模型結果的人類連線起來。 這允許人們觀察何時採用演算法或何時存在資料集偏差。 回想一下 Microsoft 如何使用眾包來驗證其單詞嵌入偏見發現,這表明人機互動是一種可以採用的實用混合模型。 公平是一把雙刃劍,對公平的數學定義仍然沒有達成共識。 我們可以採用五分之四規則或其他平等措施,但缺點很快就會隨之而來。
在我們能夠構建完全透明和可解釋的模型之前,我們仍然需要依靠各種工具集來衡量和糾正機器學習模型中的偏差。 值得慶幸的是,這些工具集功能豐富,具有大量的公平性指標和偏差校正演算法。