此頁面上的內容需要較新版本的 Adobe Flash Player。

獲取 Adobe Flash Player

人工智能

用人工智能監督人工 遭遇非技術困局
作者:   來源:科技日報   日期:2020-07-29

   遠程辦公常態化催生云監工軟件市場。近日一款名為Enaible的AI監工軟件銷售火爆,這種AI軟件不僅可以盯著員工干活,還可以對員工的工作效率進行打分…

   一場新冠肺炎疫情,讓遠程辦公逐漸成為常態。釘釘、飛書、企業微信、zoom等視頻會議類軟件,很好地解決了遠程溝通問題。除了視頻會議軟件,另一種云監工軟件也火了,這種AI軟件可以盯著你干活,看你是否“摸魚”,并給你打分。這款AI監工軟件名叫Enaible,據悉,全員在家辦公期間,Enaible銷售尤其火爆,前來咨詢的公司數量是以前的4倍。但也有批評聲音表示,這款軟件會讓員工失去創造力和對于公司的忠誠度。

   收集操作痕跡可給工作效率評分

   AI監工有何神通能監督員工們的工作,還能為員工打分?據介紹,Enaible軟件裝在員工的電腦里,并可以在后臺一直運行,收集員工工作中的細節數據后提供給公司。軟件使用了一個名為Trigger-Task-Time的算法,算法會根據郵件或者電話,來判斷員工要完成什么任務以及計算這些任務花了多長時間來完成,隨后算法會根據這些數據給員工的工作效率打分。

   “我們使用的操作系統,都會以日志的形式對應用軟件的操作流程進行記錄。打開哪個文檔、內容是什么、上網瀏覽哪些網頁都會留下使用痕跡。在計算機里面裝一個監控軟件,賦予它操作系統里的很多權限,AI監工就能把辦公中操作電腦所留下的各種數據收集起來,進行融合處理,形成計算機可理解的表達。”天津大學智能與計算學部教授韓亞洪解釋,因為AI監工記錄下來的數據會有圖片、文字、視頻、音頻以及各種符號數據,因此會用到模式識別、自然語言處理、語音識別、數據挖掘、多模態數據融合等AI領域的最新技術。

   “AI監工最核心的部分不只是收集數據,其最大難度在于通過算法模型,對這些數據進行分析,從而做出正確的決策,也就是對員工的工作效率等進行打分。”韓亞洪解釋,這個算法模型的形成需要進行機器學習,具體說是監督學習。監督學習光有大量的數據是遠遠不夠的,必須要有很多專業領域知識的積累,這樣才能為數據本身和最后的正確決策建立起一個關聯,形成有監督的信息,也就是一條條有效的訓練數據。

   “什么是有效的訓練數據?比如訓練機器識別動物,我們會找很多貓、狗的照片,不同品種、不同形態,但是我們都必須為這些圖片標注上貓或者狗的名稱,這個標注就是正確決策,圖片和對應的標簽共同形成了一條有效的訓練數據。通過對大量有效數據的學習,機器就可以建立起一個算法模型,對圖片進行識別。”韓亞洪舉例說。

   “生成Trigger-Task-Time的算法模型,領域內的專家知識和領域內的數據缺一不可。訓練這樣一個模型,需要有很多領域內的相關知識積累和儲備才能做到,并找到有效的知識融合方法。”韓亞洪分析,這才是成就AI監工的核心關鍵。

   據Enaible官網介紹,這家公司的創始人擁有20年的“CEO教練”經驗。也正是有這樣的職業背景,讓AI監工軟件除了評判員工外,還有一個領導力推薦算法可以給老板們提供建議,自動找出員工工作中的問題、提高效率。

   隱私無所遁形AI被吐槽不近人情

   AI監工從誕生之初就伴隨著爭議,在不少員工眼里,AI監工軟件正扮演著“飯碗殺手”的角色,而且是不近人情的。

   員工們吐槽最多的就是“不被信任”“每分每秒被監控,感到很可怕”……2019年4月末,亞馬遜就用數字監控器追蹤發貨倉庫里揀貨工人們的工作速度,并管理和限制員工離開崗位的時間,然后自動生成解雇的指令。員工則被這種“看不見、卻無處不在”的“電子皮鞭”驅趕得疲于奔命,連喝水上廁所都不敢隨便去,更別提各種隱私無所遁形。

   “AI監工的存在引發了一個始終伴隨著人工智能發展的重要問題,那就是人工智能倫理問題。倫理是有界限的,超過一定的界限可能就涉及到法律問題了。”韓亞洪舉例說,比如無人駕駛汽車上路把人撞死了,這個法律責任該由誰擔負呢?這就是人工智能倫理問題。對于裝在電腦里的AI監工,雖然員工在辦公,但電腦畢竟是私人的,監控員工就有可能會涉及到個人的隱私數據。因此AI監工的存在,首先要解決好人工智能倫理的問題。

   還有很多員工質疑“AI監工的決策是否能衡量員工的生產力”“評判的結果是否準確”……韓亞洪表示,這類軟件肯定會考慮到大多數辦公業務的情況,因此決策的結果大部分是準確的。但特殊情況肯定也是存在的,當機器遇到的是它從來沒碰到過的特殊情況時,算法可能也會給出不準確的評判。因為這種監督員工工作效率的工作,即使由人來做,也有不準確的時候。

   解決倫理問題AI監工或迎長遠發展

   面對各種吐槽,Enaible公司也感到非常委屈,根據他們的統計,8小時工作制里,其實人們有產出的只有3個小時,美國每年有4000億美元被員工們的低效率損失掉。管理者本來就是要盯著員工干活,判斷他工作中的問題,這個過程換成AI也一樣。企業反正都要裁員,那不如精準地找出工作效率最低的人。

   “Enaible公司的說法也有一定的道理,但是未來要全面使用AI監工,首先需要厘清人工智能倫理與人工智能應用的關系。”韓亞洪提出自己的看法,只有捋順AI倫理問題,才能決定AI監工是否能繼續使用。而讓員工和老板都認可,AI監工才有可能發展下去。

   “在技術層面,增加交互功能,對于完善機器算法模型將有很大的幫助。”韓亞洪解釋,當AI監工部署到一個公司時,可能開始的時候,它的性能沒有那么好。而如果AI監工的模型能設計成可交互的形式,并且在交互中能夠進化,它的能力就會在學習中再提升。就像我們上面提到的,如果遇到模型算法沒有遇到過的數據,就有可能出現決策錯誤。如果這時候,通過交互告訴機器正確的決策,那么下次再遇到同類問題,機器的算法模型就會舉一反三,給出正確的決策了。

   “而且現實世界里,員工的工作狀態必然受其所處的社會、家庭和生活環境的影響,所以對員工的監督和管理也不可能只用與工作有關的冰冷冷的數據。”韓亞洪表示,如果AI監工能變得更人性化一些,也就是算法模型設計得更個性化一些,比如通過捕捉員工的表情、動作等方面的變化,并通過大數據的蛛絲馬跡去發現員工狀態、情緒、身體健康等方面的異常和變化,并且把這些數據也融入到模型算法的決策中去,這樣AI監工最終的決策也許會讓人覺得更有人情味。

   正如《麻省理工科技評論》援引英國律師科瑞的話,良好的工作環境,應該讓員工覺得自己的工作備受信任,而單純的監控是無法做到這一點的。


? 体彩黑龙江十一选五计划