你有沒有讀過一條新聞,同樣的新聞不斷回來? 瀏覽乙個產品,產品廣告就會隨之而來; 甚至,當你不經意間談論某個話題時,相關資訊會接踵而至,你的手機似乎在記錄你的言行......一直以來這一切都不是巧合,而是“演算法”計算的結果。
因為有了“計算”,使用者獲取資訊的成本大大降低,網路服務更加精準高效。 然而,越來越多的使用者擔心被“算計”,越來越關注“資訊繭”、“大資料殺”、“誘發成癮”等問題。 “不要讓'演算法'變成'計算'”成為網友們的共同呼聲。
痛點
“流量優先”導致混亂
最近,北京市民王嵐遇到了一件荒謬的事情:兒子瑞瑞還不到10歲,手機卻頻頻收到各種相親資訊。 歸根結底,原來是兒子前幾天誤打相偶廣告。 這讓王嵐感到擔憂:“網際網絡上對使用者資訊的收集已經達到了普遍的程度。 ”
大學生宋凡最近拿了乙個閱讀軟體。 開啟後,乙個標有“您可能感興趣”的**被推送到介面。 “那不是我最喜歡的作家嗎? 他點開鏈結,一看已經乙個多小時了。 看完後,系統推薦了這個**“額外”。 不知不覺中,他連續“刷”了幾個小時,甚至忘了寫老師布置的題目。
這就是“演算法”的用武之地。杭州一家網際網絡公司的演算法工程師向陽說,“手機軟體可以隨時抓取使用者資料,通過智慧型模型分析人們的行為、習慣和偏好,過濾掉使用者不感興趣的內容,推薦使用者感興趣的資訊。 ”
他透露,對於一些商業平台來說,使用“演算法”的主要目的是為了增加流量和增加收入,而推送的資訊是優質還是劣質,是否會帶來網路成癮等問題都沒有考慮。 “就像孩子喜歡吃糖一樣,有些商家只想把盡可能多的糖賣給孩子,會不會影響他們的健康,不是他們關心的。 ”
這種“流量優先”的經營邏輯,促使一些網路平台頻頻借助“演算法”推送使用者感興趣的同質化內容,更糟糕的是,用搶眼的劣質低俗內容取悅使用者。 隨著時間的流逝,使用者接收到的資訊範圍會越來越窄,渠道會變得單一,從而陷入通常所說的“資訊繭”。
除了“資訊繭”,還有經常被詬病的“演算法歧視”。 所謂“演算法歧視”,是指在設計和應用“演算法”的設計和應用中,因偏見、歧視性資料集或其他因素而造成的“不公平結果”。
住在石家莊的劉女士在北京有乙個大學孩子,每次去北京看望孩子,她都住在學校旁邊的一家酒店裡。 今年年初,她通過手機APP訂了房間,**每晚近800元。 但當她入住時,發現有房客訂的房型相同,**只有600元。 經過對比,兩人在同一款手機軟體上看到的**是完全不同的。
我還是這家酒店的白金卡客戶,但非但沒有享受折扣,反而被“屠殺”了,我的孩子告訴我,這叫“大資料殺戮”! ”
“大資料殺傷”是“演算法歧視”的表現之一。 它指的是平台利用“演算法”進行使用者“畫像”,如果使用者已經是老客戶,就不再需要低價吸引,同時平台可以通過收集消費資料來檢測使用者的消費能力,從而“瞄準”**水平。 向陽表示,“演算法歧視”曾經非常流行,買機票、網約車甚至網購,都會被“大資料扼殺”,隨後相關部門強力監管,這種現象已經受到限制,但行業內仍然存在不同程度的現象。
困難
“演算法”違規不容易判斷
有網友得出結論,“演算法”推薦的劣質資訊有三個特點:真假難辨、缺乏深度、價值取向混亂。 不少人認為,“價值導向的混淆”是規範“演算法”的最大難點。
王軍是個自以為是的人,最近計畫寫一篇“年輕人該啃老”題的文章。 當他開啟手機搜尋這個話題時,發現大部分網友都不支援年輕人啃老人,這與他的觀點非常吻合。
沒想到,一位同事告訴他,現在大多數年輕人都認為,“啃老沒有問題,生活就是要享受的! 這讓王軍大吃一驚,他的同事把手機拿到王軍眼前:“你看,螢幕上滿是支援啃老的檢視。 而當王軍也把自己的手機頁面給同事們看的時候,兩人也只能面面相覷。
確定使用者的價值取向並不難,評估的方式也有很多種。 例如,抓取使用者在某個話題上的停留時間,分析訊息是正面的還是負面的,統計使用者的點讚記錄,都可以用來判斷使用者的觀點,然後根據“內容相似度”和“使用者相似度”向頁面推薦最受認可的內容。 向陽進一步解釋道,“演算法”在一定程度上起到了“編輯”內容的作用,推不推、推給誰、推多少都是預設程式,有最終決定權。
近年來,針對“演算法”引發的混亂,監管部門採取多重措施,通過訪談、處罰、整改、下架等方式,大力淨化網路氛圍。 然而,如何通過“演算法”有效地倡導正確定位的資訊仍然是乙個有待解決的命題。
向陽表示,雖然“演算法”作為一項技術是中立的,但其模型設計和資料分析與設計師的個人選擇密不可分,其主觀意識會在不知不覺中嵌入到“演算法”系統中。 同時,由於“演算法”的設計具有較高的技術門檻,其設計過程就像乙個黑匣子,外界難以理解其原理和邏輯,因此也很難確定“演算法”所體現的方位。
襄陽的說法不斷被現實所證實。 由於大多數“演算法”設計者不會公開計算的細節,即使他們公開了,也很難準確確定。 由於缺乏專業技術知識,當使用者的權益受到損害時,依靠最高階別的成本更高。 由“演算法”引發的多起訴訟,均未產生令人滿意的處罰結果。
作為一種商業秘密和技術秘密,“演算法”推薦的申請過程往往涉及社會利益和公共利益,如何平衡和把握“演算法”推薦的法律監管邊界是一大難題。 北京大學法學院副院長薛軍認為,從司法和行政概念上看,有必要將“演算法”作為“演算法”操作者行為的延伸。 無論經營者是否有過錯,是否存在行政違法行為等,“演算法”因素都應納入問責範圍。
重點
內聚力標準化了“演算法”。
隨著公眾對“演算法”的持續關注,加強對“演算法”監管的呼聲也越來越高。 調查顯示,超過70%的受訪者表示曾被“演算法”推薦服務困擾,超過60%的受訪者認為“大資料殺人”在他們的生活中很常見。 絕大多數使用者認為,“演算法”推薦技術存在窺探和洩露使用者個人私隱的重大風險。 濫用“演算法”侵犯了消費者的知情權、選擇權和個人資訊權,也對網路空間的通訊秩序產生了負面影響。
在這種情況下,一些使用者希望關閉“演算法”推薦功能,並停止與平台共享個人資訊。 在相關部門的監督下,各大網路平台紛紛推出關閉“演算法”推薦功能,將是否收集使用者偏好的選擇權交還給使用者。
但是,存在諸如難以關閉平台上的個性化推薦等問題。 上海市消費者保護委員會對消費者常用的10款移動APP進行了為期8個月的專項評估,結果顯示,關閉個性化推薦需要多達7個步驟。
記者登入了幾家頂級主流手機軟體,目前關閉“演算法”推薦功能的方式主要是通過“個人設定”。 操作步驟與以往調查結果一致,大部分仍需5-7個步驟。 記者隨機採訪了20位手機使用者,大部分使用者表示不知道手機軟體也有關閉“演算法”推薦的功能,只有1位使用者知道該功能,知道具體操作。
這種現象反映了行業的矛盾心理,不希望使用者大規模關閉“演算法”,並意識到只有監管才能是長期的。 向陽說,標準化“演算法”需要社會各界共同努力,找到最大的公約數。
有效管理“演算法”的混亂是構建安全清晰的網路生態系統的必然要求。 中國政法大學副教授鄭宇雙表示,要完善“演算法”的法律監管模式,解決“演算法”的法律監管問題,實現演算法的善治。
至於使用“演算法”是否會產生不良後果,有必要建立社會評價機制,進行持續的跟蹤研究。 如果社會審查機制有充分的理由確定使用特定“演算法”導致了不利後果,則應啟動問責機制,並要求相應的“演算法”操作者進行解釋和解釋並進行優化。 ”薛軍建議道。