儘管採用速度創紀錄,並且持續炒作,但生成式人工智慧更像是乙個智力承諾或企業重點領域,而不是乙個可操作的現實。 據估計,到 2030 年,AI 市場將達到近 6700 億美元,生產力加起來將達到 44萬億美元,但商業領袖仍然想知道人工智慧到底能做什麼,如何利用它,以及它將如何帶來宣傳的經濟利益。 人們對人工智慧的潛力不乏希望或信念,尤其是在經濟動盪時期。
與數位化轉型的任何方面一樣,生成式人工智慧的有效部署將更多地依賴於人類的適應能力,而不是技術能力。 事實上,人為因素——人和文化——將推動人工智慧的採用或缺乏。 這意味著公司需要花盡可能多的時間思考如何利用他們的文化優勢,並實施必要的流程來補充或彌補他們的文化弱點,以推動人工智慧的採用。 例如,如果一種文化是被動攻擊型或風險規避型的,那麼建立正確的正式激勵措施來獎勵風險將創造奇蹟。 相反,如果一種文化太具有創業精神,以至於它抓住了任何新的市場機會,以至於被閃亮的新事物分散了注意力,那麼正式的激勵措施和流程必須獎勵專注、紀律和忽視新奇趨勢的能力。
雖然 genai 太新了,無法理解或它會走多遠,而且人工智慧總體上只是最近才成為主流,但從最近的企業歷史中仍然可以從最近的企業歷史中吸取寶貴的經驗教訓,了解組織如何採用和實現新興技術的價值。 這就解釋了為什麼有些文化不僅能夠更好地接受新技術,而且能夠更好地進行創新。 更具體地說,來自科學研究和真實世界案例研究的證據確定了七個可推廣的經驗教訓,可以幫助您提高在組織層面採用 GenAI 和任何新技術的能力:
改變或改變會改變你。 這是創新的最大論據,儘管有時會遇到組織不願意改變的情況。 這種抗性存在於每個組織中。 但為了保持競爭力,公司需要能夠堅持到底。
生成式人工智慧也不例外:雖然一些組織已經接受了它,但太多人抵制它,因為他們已經嘗試並測試了做事的方式,而對未知的恐懼掩蓋了任何改變的願望。 與任何其他創新一樣,如果GenAI可以部署在整個系統中,它將有效地增強組織的能力,使其面向未來並提高其整體適應性。 然而,這需要正確的倡導者(變革推動者、內部創業者等)來對抗系統中固有的、本能的抵制,這種抵制可能會被任何可能被視為對現狀構成威脅的變革所激怒。
成功地將新技術引入組織——尤其是當它流行或有爭議時——還需要了解阻力的來源及其背後的邏輯。 有時,抵制可能是正式和明確的,例如有報道稱,75%的組織正在考慮禁止員工使用生成式人工智慧。 其他時候,需要解決的是非正式抵制,這種現象非常普遍,以至於有乙個特定的學術術語“被動創新抵制”,旨在強調員工抵制變革和滿足於現狀而產生的無意識抵制。 解決這種隱性恐懼的最好方法是推銷該技術將如何加強組織 - 並增加每個部分的彈性 - 目標是將態度從消極公升級為積極,或至少是中立。
生成式人工智慧是一項用途非常廣泛的技術。 然而,這可能是乙個缺點,因為它與特定問題沒有明顯的聯絡,這可能使其成為一種等待問題解決的巧妙解決方案的狀態。
為了解決這個缺點,組織必須從問題開始。 也就是說,確定企業必須應對的最緊迫和最痛苦的挑戰。 一旦他們有了明確的目標,他們就應該測試人工智慧以及其他潛在的解決方案。 在生物智慧型方面,乙個重要的思維方式轉變是減少對自動化的關注,這通常意味著中斷或消除,而更多地關注放大。
例如,H&M從人工智慧領域的落後者變成了先驅,因為它認為人工智慧不是“人工智慧”,而是“放大”的智慧型,專注於這項技術如何增強或增強現有的組織能力,而不僅僅是消除包括人類在內的低效率。 同樣,在科技巨頭中,亞馬遜在人工智慧領域的起步相對較晚,但一旦將人工智慧定位為現有業務線中其他創新的推動者,它就成功地超越了競爭對手。 沃爾瑪決定投資生成式人工智慧,通過賦予員工權力來改善客戶服務,幫助他們找到他們需要的東西並滿足他們的需求。
一般而言,與大規模的總體規劃相比,對現狀進行小規模的漸進式改進將是測試和部署技術創新的更好方式。 正如哈佛商學院教授艾公尺·埃德蒙森(Amy Edmondson)在她的新書《對錯》(The Right Wrong)中指出的那樣,這也是設計導致智力失敗的實驗的最佳方式,因為它使我們能夠在小錯誤成為嚴重的地方性問題之前發現它們。
因此,以開放的心態和實驗的心態盡早接近你的人工智慧飛行員,是最好的學習方式,包括從失敗的實驗中吸取教訓——而快速失敗是為成功創造條件的好辦法。 從長遠來看,只要你能從這些失敗中吸取教訓。
在部署生成式人工智慧或任何形式的資料驅動自動化方面,沒有比人類直覺更大的障礙了。 事實上,無論人們扮演什麼角色,通過自主技術產生的類人活動通常被視為對控制、權力和自主性的威脅。 公平地說,它確實經常減少人類的自由和即興創作。 工人們擔心他們忙於培訓的技術將被取代。 高管們將基於人工智慧的標準化視為對他們權力的攻擊,因為決策和行動已被編入系統,並與各個機構分離。
因此,重要的是要傳達乙個權衡:在放棄對次要決策的一些控制時,人們可以將更多的精力集中在更高階的任務上。
例如,招聘人員和招聘經理往往會高估自己評估他人才能的能力,但研究表明,人工智慧在識別人們的潛力方面至少同樣準確,甚至更準確。 最終,只要技術能夠達到人類能力的水平,人類將有機會開發和部署其他技能,尤其是那些技術無法獲得的技能,包括genai。 例如,在萬寶盛華集團,我們的招聘人員正在使用GenAI將重複性和非創造性的任務(例如,總結和解析簡歷,校對和更正求職信以及輸入招聘廣告)外包,以便他們可以將更多時間花在增值活動上:幫助候選人了解工作是否適合他們,幫助客戶縮小他們想要的候選人和他們實際需要的候選人之間的差距。
改變是乙個可愛的想法,但在個人和集體層面上,一旦我們意識到執行它所需的努力、堅持和奮鬥,這個想法就會開始失去很多牽引力。 其實,我們喜歡的不是改變,而是改變。
生成式人工智慧也是如此:讓乙個已經經歷過實驗階段的組織,利用其力量,擴充套件或工業化的想法是誘人的。 然而,經歷這些階段並經歷這些經歷的過程才是真正需要做的。 因此,組織應該以與個人學習一門新語言或完成新大學學位相同的方式來採用人工智慧:耐心、時間、奉獻精神,並認識到重要的不是目的地,而是旅程。 。
文化抵制通常被認為是採用人工智慧的主要障礙。 雖然組織在“文化變革”干預方面的投資不斷增長,但有意識地塑造或重塑公司文化的嘗試需要花費大量時間,而且成功率很低。
乙個更好的方法是將文化視為乙個約束或設定引數,並把它當作你與天氣的關係:不是你可以改變的東西,而是影響你選擇衣服的東西。 關鍵是要建立新的制度和程式來抵消文化的影響,例如抑制非正式動力和力量影響的外在形式激勵。 正如學術評論所表明的那樣,這些流程最好由中層管理人員部署和實施,因為他們的行為和決策可以推動變革,並在更廣泛的員工隊伍中灌輸新的習慣。
由於圍繞生成式人工智慧的聳人聽聞,這個話題經常引發道德困境、法律恐懼和道德問題。 組織必須從一開始就解決這些問題,將人工智慧定位為一種既符合道德設計又能改善現狀的人工智慧。 例如,對使用者保持透明,讓人們能夠“選擇加入”,並確保人工智慧的應用代表了對現有流程和方法的改進,這不僅會讓公司走出困境,還可以讓懷疑論者相信生成式人工智慧可以為他們的工作和生活帶來有價值的改善。 正如 Gartner 關於採用道德 AI 的報告所建議的那樣,透明度至關重要:“無論是員工、客戶還是公民,都要誠實地說明他們與機器的互動內容,並在整個過程中多次明確標記任何對話。 ”
歸根結底,文化總是在不斷發展。 進步不是採用每一項創新或新技術的結果,而是利用正確的工具來推進戰略並提高組織的長期效率。 如果公司能夠弄清楚如何將人工智慧無縫整合到他們的戰略和文化中,他們可能能夠提高相對於競爭對手的競爭優勢。 大多數組織仍在努力解決這個問題。 那些成功破解文化採用密碼的公司將獲得這項新技術的回報。
技術與分析