機器學習和偏見

Mondo 科技 更新 2024-03-02

觀察偏見對機器學習模型的影響,並探索消除這種偏見的方法。

偏見是指對乙個人、乙個群體或乙個事物的不公平偏見。 隨著機器學習成為我們日常生活中不可或缺的一部分,問題來了,機器學習是否也存在偏見? 在本文中,我將深入探討這個問題及其影響,以及消除機器學習模型中偏見的多種方法。

機器學習的潛力令人印象深刻,它可以為自動駕駛汽車提供動力,在X射線中準確識別癌症**,以及基於我們過去行為的興趣。 然而,雖然機器學習帶來了許多優勢,但它也帶來了許多挑戰。 其中乙個挑戰是機器學習的分類和**存在偏見。 這些偏差不是仁慈的。 根據機器學習模型生成的決策,這些偏見可能會導致各種各樣的後果。 因此,重要的是要了解如何在機器學習模型中引入偏見,如何測試偏見以及如何消除偏見。

用於評估被定罪罪犯的量刑和假釋的工具(compas)是機器學習中偏見的乙個例子。 由於許多監獄人滿為患,希望通過評估來確定不太可能再次犯罪的囚犯。 然後對囚犯進行審查,看看是否可以先釋放他們,以便為新的監禁者騰出空間。 風險評分由大量關於囚犯的問題來定義,包括囚犯的父母是否入獄或他們的朋友或熟人是否入獄(但不包括種族)等問題。

已經發現,這個工具在被定罪的罪犯成為累犯的可能性方面是成功的,但是當種族被引入判斷公式時,就出現了乙個錯誤。 值得指出的是,陪審團仍未做出裁決,因為compas開發公司隨後提供了資料來支援其演算法的結果,但它也指出了是否存在偏見的問題。 這些方法將受到挑戰,隨後需要提供資料以證明其公平性。

機器學習被視為人力資源中各種用例的關鍵工具,從提供培訓建議到招聘和其他戰術活動。 2014 年,亞馬遜開始開發乙個篩選候選人的系統,以根據簡歷上的文字自動識別要尋找的關鍵候選人。 但亞馬遜後來發現,在為工程職位選擇人才時,該演算法似乎更偏向於男性而不是女性。 在發現該演算法缺乏公平性並多次嘗試為其注入公平性後,亞馬遜最終放棄了該系統。

Google 相簿應用可以通過識別物件來對物件進行分類。 但是當人們使用該程式時,他們發現這裡存在某種種族偏見。 亞馬遜的Rekognition是乙個商業面部分析系統,也被發現存在性別和種族偏見。

最後乙個例子是Microsoft的 Tay Twitter 機械人。 Tay 是乙個對話式 AI(聊天機械人),它通過在 Twitter 上與人互動來學習。 該演算法挖掘公共資料以構建對話模型,同時還不斷從 Twitter 上的互動中學習。 不幸的是,並不是所有的Tay的互動都是積極的,Tay已經學會了現代社會的偏見,甚至在機器模型中,這被稱為“播種和得到瓜,播種豆子和得到豆子”。

無論偏見如何,機器學習演算法的建議都會對個人和群體產生真正的影響。 包含偏見的機器學習模型可以幫助以自我實現的方式延續偏見。 因此,當務之急是檢測這些模型中的偏差並盡可能消除它們。

關於偏差的出現,可以簡單地歸因於生成的資料的結果,但其來源難以捉摸,通常與資料**、資料的內容有關(是否包含模型應該忽略的元素? )和模型本身的訓練(例如,如何在模型的分類上下文中定義好壞)。

如果機器學習演算法僅針對白天駕駛進行訓練**,則允許模型在夜間駕駛可能會導致悲慘的結果。 這與人類偏見不同,但也證明手頭的問題缺乏代表性的資料集。

也可能發生我們沒有預料到的偏差。 例如,亞馬遜的招聘工具會懲罰一些候選人使用的詞語,並為其他人使用的詞語加分。 在此示例中,受懲罰的術語是女性常用的性別詞,女性同樣不能充分代表此資料集中的資料。 亞馬遜的工具主要在10年內對男性簡歷進行訓練,這導致了基於男性使用的語言偏向於男性簡歷。

即使是人類也可能無意中放大機器學習模型中的偏見。 人類偏見可能是無意識的(也稱為隱性偏見),這意味著人類甚至可能在自己不知情的情況下引入偏見。

讓我們看看如何檢測機器學習模型中的偏差以及如何消除它們。

在機器學習開發領域的許多領導者提供的工具中,機器學習資料集和模型中的偏見也很常見。

檢測偏差從資料集開始。 資料集可能無法表示問題空間(例如,僅使用白天駕駛資料訓練自動駕駛汽車)。 資料集還可能包含可能未被考慮的資料(例如,個人的種族或性別)。 這些分別稱為樣本偏倚和偏倚。

由於資料通常在用於訓練或測試機器學習模型之前進行清理,因此也存在排除偏差。 當我們刪除個人認為不相關的功能時,就是這種情況。 當收集的訓練資料與生產過程中收集的資料不同時,就會發生測量偏差。 當使用特定型別的相機收集資料集,但生產資料來自具有不同特性的相機時,就會發生這種情況。

最後,還有演算法偏差,它不是來自用於訓練模型的資料,而是來自機器學習模型本身。 這包括如何開發或訓練導致不公平結果的模型。

現在,我已經為您提供了偏差示例,讓我們看看如何檢測和防止機器學習模型中的偏差。 我們將**來自Google,Microsoft,IBM和其他開源解決方案的一些解決方案。

谷歌的假設工具(WIT)是一種互動式工具,允許使用者以視覺化的方式研究機器學習模型。 WIT 現在是開源 TensorBoard Web 應用程式的一部分,它提供了分析資料集和經過訓練的 TensorFlow 模型的能力。 WIT 能夠手動編輯資料集中的樣本,並通過關聯模型來檢視更改的效果。 它還會生成乙個部分依賴關係圖,該圖顯示更改功能時結果如何變化。 WIT 可以應用各種公平性條件來分析模型效能(針對群體無意識或公平機會進行優化)。 WIT 易於使用,並包含各種演示,可幫助使用者快速入門。

IBM 的 AI Fairness 360 是用於檢測和消除機器學習模型中偏差的最全面的工具集之一。 AI Fairness 360 是乙個開源工具集,具有 70 多個公平性指標和 10 多種偏差校正演算法,可幫助您檢測和消除偏差。 偏差校正演算法包括優化預處理、權重調整、偏差去除、正則化項等。 指標包括歐幾里得距離和曼哈頓距離、統計奇偶差等。 AI Fairness 360 包含大量教程和文件。 您還可以使用涵蓋三個資料集(包括 Compas 累犯資料集)的互動式演示來探索偏差指標,然後應用偏差校正演算法來檢視結果與原始模型的比較情況。 該工具集專為開源而設計,允許研究人員新增自己的公平性指標和偏差校正演算法。

IBM的研究人員也在努力實現“人工智慧服務的可組合偏差評級”。該文提出一種用於機器學習模型的偏差評分系統。 此處設想的第三方評分系統用於驗證機器學習模型的偏差。 與Microsoft在自然界中的學習經驗類似,資料集也可能包含偏見。 馬里蘭大學和Microsoft Research最近發表了乙份題為“我的單詞嵌入中的偏見是什麼?”的報告。建立了一種利用眾包識別文字編碼(自然語言)偏差的方法。 詞嵌入可以通過特徵向量表示高維空間中的文字。 隨後,這些特徵向量支援向量算術運算。 這允許與智力遊戲進行類比,例如“男人是國王,女人是x”。 計算x的結果是女王,這是乙個合理的答案。 但從其他類比來看,在某些方面可能存在偏見。 例如,“男人是計算機程式設計師,女人是家庭主婦”反映了性別偏見。 而“父親是醫生,母親是**”也有同樣的問題。 Microsoft已經展示了使用關聯測試自動檢測文字編碼偏差的能力。 這是受到內隱關聯測試(IAT)的啟發,該測試被廣泛用於衡量人類偏見。 這一發現隨後通過使用眾包來確認偏見得到了驗證。

通過這個過程,你可以幫助詞嵌入使用者減少這個資料集的偏差。

在過去幾年中,偏見已成為機器學習研究最熱門的領域之一,用於檢測和糾正模型偏見的框架正在出現。

區域性可解釋的與模型無關的解釋 (lime) 可用於理解模型為什麼提供特定的 **。 Lime 適用於任何模型,並為給定的**提供人類可理解的解釋。

FairML 是乙個工具箱,它通過量化模型輸入的相對重要性來審核模型。 隨後,這種相對重要性可用於評估模型的公平性。 FairML 也適用於任何黑盒模型。

在許多情況下,機器學習模型是乙個黑匣子。 您可以為其提供輸入並觀察其輸出,但這些模型將輸入對映到輸出的方式隱藏在經過訓練的模型中。 可解釋的模型可以幫助揭示機器學習模型得出結論的方式,但在這些模型被普遍應用之前,另一種選擇是人機迴圈。

人機互動是一種混合模型,它將傳統機器學習與監控機器學習模型結果的人類連線起來。 這允許人們觀察何時採用演算法或何時存在資料集偏差。 回想一下 Microsoft 如何使用眾包來驗證其單詞嵌入偏見發現,這表明人機互動是一種可以採用的實用混合模型。 公平是一把雙刃劍,對公平的數學定義仍然沒有達成共識。 我們可以採用五分之四規則或其他平等措施,但缺點很快就會隨之而來。

在我們能夠構建完全透明和可解釋的模型之前,我們仍然需要依靠各種工具集來衡量和糾正機器學習模型中的偏差。 值得慶幸的是,這些工具集功能豐富,具有大量的公平性指標和偏差校正演算法。

相關問題答案

    數學建模與機器學習習的關係

    數學建模的習和實踐可以自然地過渡到當前流行的機器習和資料探勘。它們本質上是數學建模,即使用模型和計算機來解決實際問題。人工智慧是通過機器展示的人類智慧型,可以說人工智慧還只是處於想象階段,能夠實現的有限人工智慧就是機器習機器習是一種允許計算機利用現有資料 經驗 推導出某種模型的方法,並將在未來使用該...

    PCA 和 tSNE 在機器學習中的侷限性 習

    PCA 主成分分析 和TSNE T分布隨機鄰域嵌入 是資料分析和機器習中用於降低資料維數的兩種流行技術。儘管它們很有用,但它們也有一些侷限性,如下所述 線性 PCA是一種線性方法,這意味著它只能捕獲變數之間的線性關係。它可能不適合具有非線性關係的資料,因為 PCA 可能無法捕獲資料中的基礎模式。另一...

    商用無人機行業的人工智慧和機器學習

    隨著商用無人機系統 UAS 行業的進步,人工智慧和機器學習的使用變得越來越普遍,一些行業專家聲稱,如果沒有它,它就不會成功。根據布魯金斯學會的乙份報告,人工智慧通常是指以類似於傳統人類反應的方式對模擬做出反應的機器。人工智慧使用從資料建立的演算法來建立這些響應。機器學習尋找 AI 資料的趨勢。這兩種...

    機器學習 習 中的資料預處理和降維

    機器習和資料結構演算法首先要解決的是降維。降維在機器習中是必要的,原因如下 降維提高了計算效率。降維有助於通過減少特徵數量來避免過度擬合,從而限制模型的複雜性。處理維度災難 隨著維度數量的增加,訓練模型所需的資料量實際上呈指數級增長。這被稱為 維度災難 降維有助於降低資料的維數,從而更容易訓練模型並...

    人工智慧和機器學習領域確實為女性提供了許多機會

    人工智慧和機器學習領域確實為女性提供了許多機會這些領域需要多方面的知識和技能,如資料科學 統計學和電腦科學,這對女性來說非常有價值。女性在分析 邏輯思維 專心和耐心方面具有獨特的優勢,這在人工智慧和機器學習領域非常重要。在資料科學方面,女性可以從事資料清理 資料探勘 資料視覺化和其他工作,這些工作是...