此頁面上的內容需要較新版本的 Adobe Flash Player。

獲取 Adobe Flash Player

人工智能

為什么人工智能并沒有我們想象的那樣智能?
作者:   來源:騰訊網   日期:2020-07-29

 

   本月初,世界人工智能大會在上海召開。大會期間,張文宏醫生一句“在人工智能如日中天的今天,此次抗疫靠的還是傳統智慧”引起很多人的共鳴。

   人工智能曾經是一個頗為科幻的話題。有人擔心人工智能會取代人類,甚至會反人類。然而幾年下來,我們發現人工智能并沒有我們想象的那樣智能。“問題”究竟出在哪兒?

   從2004年開始,復旦大學哲學學院教授徐英瑾就開始將注意力投向人工智能。他不僅撰寫了大量相關論文專著,開設的人工智能哲學課程也受到學生好評。

   日前,他在“君子知道”復旦大學EMBA人文商道講堂,分享了自己對上述議題的思考。他的剖析從“什么是人”“什么是智能”這兩個問題切入。


7月17日,上海體育學院的中國乒乓球學院訓練館,多臺龐伯特多球訓練機器人已經開始使用。 海沙爾 攝


   認識不到現實和理想的差距

   就會導致“泡沫”

   嚴格來說,人工智能的主流技術并不新,它經過對傳統技術的反復迭代而來。

   關于人工智能的發展現狀,目前有“樂觀論”“悲觀論”“泡沫論”三種論調。

   上觀新聞:世界人工智能大會的舉辦,激發起了很多非專業人士對人工智能的興趣。大家很希望了解,人工智能目前進展到底如何。您如何看待人工智能目前的發展?

   徐英瑾:現在公眾對人工智能有很多期望,但根據我的觀察,這些期望相當大的程度上是建立在一些對學界實際發展狀況的誤解上。

   我經常會聽到各種各樣的誤解,第一個誤解就是認為人工智能是個新東西,是這幾年冒出來的。事實上,人工智能(artificial intelligence)這個詞正式變成公認的學科名詞是在1956年美國的達特茅斯會議上。顯然,這是距今已經挺久遠的事情了。

   至于現在被談論很多的深度學習技能,前身就是人工神經網絡(artificial neural network)。這個概念在上世紀60年代就被學界注意到了。人工智能的奠基人之一阿蘭·圖靈生前也搞過一些粗淺的人工神經網絡研究。這樣算的話,這個技術至少可以追溯到上世紀40年代。

   所以,嚴格來說,人工智能的主流技術并不新,它經過對傳統技術的反復迭代而來。

   上觀新聞:那么,人工智能技術發展至今,現狀如何?

   徐英瑾:關于人工智能的發展現狀,目前有“樂觀論”“悲觀論”“泡沫論”三種論調。

   其中,“樂觀派”可能是主流。持樂觀論者認為,人工智能的發展一定能夠在短時間內解決我們面臨的各種問題。

   這種論調描繪出了一個烏托邦般的場景:當你回到家中,所有的設備都能夠通過全新的網絡技術和物聯網與你心有靈犀;汽車是不用駕駛的,你上了車以后,什么事都不用干,就可以把你帶到目的地;沿途,你還可以和你的汽車交談,就好像它是你的人類司機那樣。

   悲觀論者更多是站在那些可能會丟掉工作的人的立場上,認為人工智能實在太厲害,會取代很多人的工作。到時,如果社會暫時又無法提供更多的新崗位,這可怎么辦?

   我的觀點是泡沫論。“泡沫”不是指人工智能的未來一片黯淡,而是說在短期內,這項技術的發展還無法支撐得起很多人的夢想。

   理想很豐滿,技術目前還很“骨感”。如果你意識不到理想和現實之間的差距,就會導致泡沫。假如因為對人工智能持有樂觀態度而到市場上去融資,就更需審慎考慮。

   歷史上確實有成功案例,比如IBM360計算機項目。

   它的成功使計算機從過去那種非常笨重、只有高級科研單位才能買得起的狀態,慢慢地變成辦公室可以用的計算機,為個人PC的出現打下了基礎。但失敗的案例也很多。如果關于人工智能的融資計劃都把未來描述得很美好,把餅畫得特別大,最后也很可能會有問題。

   我個人對人工智能未來發展的基本判斷是——

   人工智能對我們生活的改變不是全局性的、顛覆性的,而是局部的改進。比如,在在線教育、養老陪護等領域,人工智能能促進一些變化,帶來一些商機。但有些項目,比如自動駕駛,就很可能存在一些應予以審慎對待的泡沫。

   當然,我主張的“泡沫論”是建立在一些基本概念的界定上,比如“專用人工智能”和“通用人工智能”。


小朋友在上??萍拣^一場活動中參觀四足機器人 新華社 圖


   使用傳統方法解決問題的能力下降

   是危險的

   李世石應該會泡面、會開車,在和AlphaGo下完棋以后他還能夠接受媒體采訪、談談自己的感受。但是,AlphaGo肯定不會開車,更不能在和李世石下完棋以后和人類、和媒體交流自己的所思所想。

   現在的人工智能都是基于大數據的,它對小概率和偶然性事件缺乏應對機制。當它面對這個充滿變動的世界時,就不知道該如何應對了。

   上觀新聞:如何區別“專用人工智能”和“通用人工智能”?

   徐英瑾:專用人工智能就是只能干一件事或兩件事的人工智能,通用人工智能是指什么事都能干一些的人工智能。

   舉個例子來說,李世石是一位棋手,AlphaGo是一個圍棋程序。如果我們把李世石看成一個智能系統的話,他就是通用智能系統。因為他除了下棋,還能做許多其他事情,比如他應該會泡面、會開車,在和AlphaGo下完棋以后他還能夠接受媒體采訪、談談自己的感受。但是,AlphaGo肯定不會開車,更不能在和李世石下完棋以后和人類、和媒體交流自己的所思所想。經過這樣的對比,我們能明顯看出專用人工智能的局限。

   我們人類的特點是,在一件事上可能是專家,其他事也能干,只是干得沒那么好。但是,專用人工智能就只能干專門的事情,其他的事情基本無法兼顧。僅從這一點來講,專用人工智能和能力全面的通用人工智能之間的區別還是很大的。

   我們現在看到的人工智能都是專用的,它們的制作思路都是按照專用人工智能的思路來做的,比如人臉識別和語音識別。當前,人工智能通過卷積神經網絡技術的進步,已經獲得了一項重要能力,即可以同時通過人臉和聲音來識別他人。但對于人工智能來說,基于神經網絡的圖像識別系統和語音識別系統是兩回事。

   上觀新聞:現在很多人對人工智能的想象,是建立在“通用人工智能”之上的。

   徐英瑾:沒錯。這就成了一件比較麻煩的事。

   很多人喜歡看美劇,發現里面出現的一些機器人已經特別厲害。有的機器人不僅擁有人類的特征,還開始反抗人類。有人看了這樣的故事以后就會展開聯想:如果我們和這樣的機器人一起生活,會受到怎樣的威脅?

   自然而然地,很多人對人工智能的思考就建立在了這類科幻影視作品的基礎上。而科幻影視作品受眾廣、不需要具備太多科學素養就能看明白,很有傳播力和影響力。

   我有一個觀點:軟科幻看多了,要看一些硬科幻。硬科幻距離今天的科學比較近,對科學知識的運用更嚴謹。相比軟科幻,硬科幻更適合起科普的作用,能夠增強普通人對現實世界的思考能力和把握能力。

   現在的人工智能都是基于大數據的,它對小概率和偶然性事件缺乏應對機制。當它面對這個充滿變動的世界(比如新型病毒、未知規模的洪水等)時,就不知道該如何應對了。

   所以,我擔心的問題不是人工智能有了人的意識以后會與人對抗,而是人類過多依賴人工智能以后,頭腦反而會變簡單。

   不要以為有了現代化的先進工具以后就可以放棄傳統。舉例來說。假設現在有兩支軍隊對峙,雙方都有能力使用最新的網絡信息技術,但只要有一方攻破了對方的網絡防線,另一方的信息基礎設施就淪陷了。到時,只能轉而采用最原始的辦法(比如信鴿、雞毛信等),來傳遞信息。

   對人工智能充滿合理想象本身并沒有錯,但如果我們將人工智能的能力想象得過于強大,同時又疏于保持用傳統方法、傳統智慧解決問題的能力,這就可能會將人類置于某種尷尬的境地。


7月3日,上海臨港智能網聯汽車綜合測試示范區,商湯科技的無人駕駛汽車行駛在路上,駕駛員不用手把方向盤。 李茂君 攝


   為什么現在還發展不出

   通用人工智能

   通用人工智能系統的特點就是通用,既然是通用,就要處理全局性的問題。什么是全局性?就是擁有在不同的理論體系之間進行抉擇的能力。

   深度學習基于的神經網絡技術用強大的機器海量計算掩蓋了方法本身的“笨”。對于深度學習來說,如果有現成的數據會非常好辦,但如果沒有優質數據,靠它自己搜集數據就很成問題。

   上觀新聞:現在的“深度學習”技術,有望在短期內,達到通用人工智能的程度嗎?

   徐英瑾:人們曾經想象能夠有一種機器,不需要任何外界輸入能量或者只需要一個初始能量,就可以不停地自動運動。在哲學家看來,這個設想經不起嚴格推敲,無法從根本上立得住。在我看來,通用人工智能大概也只能停留在設想階段。

   通用人工智能系統的特點就是通用,既然是通用,就要處理全局性的問題。什么是全局性?就是擁有在不同的理論體系之間進行抉擇的能力。不同的訴求之間往往存在沖突,而人類有能力在各種沖突之間想辦法,找到一個可以平衡各種矛盾的中庸點。

   舉個大家比較好理解的例子。有一位家政員到雇主家里做事。如果雇主是一位知識分子,家里書特別多,他就可能會要求家政員盡量把書房打掃干凈,但不能干凈到書都找不到了。

   家里書多的人都知道,書的易取性和整潔性往往是相互矛盾的。書收起來,家里固然更干凈整潔了,但如果幾本書同時在看,堆起來以后再找、再取就很耗費時間。這時,究竟是追求整潔還是易???這里面就有個平衡點。這個平衡點的抵達需要家政員和雇主之間長時間的磨合,卻很難通過程序來設置。

   任何一個綜合系統都要具備處理各種復雜甚至突發情況的能力。其中有些情況甚至是非常極端、偶發的。比如,一輛自動駕駛汽車在道路上行駛。道路的左側有一個路人在行走,道路的右側有五個路人在行走,萬一出現車速太快來不及剎車的情況,到時該往哪邊拐?假設這個程序突然得到消息,左邊的路人是我們國家一位非常重要的專家,它該如何選擇?

   很多人第一直覺會覺得專家更重要,但轉念一想,每個人類個體的生命都是平等的。遇到這樣的問題,人類會痛苦抉擇、反復取舍。

   換作是機器,問題就麻煩了。我們都知道,人工智能是基于一系列規則設置的,規則背后就是各種邏輯原則。一旦情況過于特殊或復雜,機器內部基于不同邏輯規則設置的程序之間就會打架。

   我再舉個例子。假設現在有一位外國小伙子到少林寺學武術,語言不通,怎么辦?有個辦法,那就是師父做一個動作,小伙子跟著做;如果他做對了,師父就微笑,做錯了,師父就棒喝。通過這種方式,小伙子被棒喝以后,就知道自己做錯了。但具體到底哪一點做得不對,如果師父不明示、不詳解,他就需要猜、需要不斷試錯。這時語言的好處就很明顯。如果彼此能夠通曉對方的語言,師傅就能把包括武術規則在內的一整套內容都傳授給他,幫助他理解,然后再由學生自己轉化為行動。深度學習基于神經元網絡的運作產生。神經元網絡的運作,就類似于前面所說的那種比較笨的教學方法。

   人類犯錯以后的反省是基于道理和規則的。但系統不是,它遇到障礙以后的應對辦法是調整各種參數,試錯以后發現不對就再猜。它是通過大量的猜,慢慢地把事情往對的方向引。它的優勢在于,可以在很短的時間里完成人類不可能完成的巨量猜測。深度學習基于的神經網絡技術就是用強大的機器海量計算掩蓋了方法本身的“笨”。但問題是,對于深度學習來說,如果有現成的數據會非常好辦,如果沒有優質數據,靠它自己搜集數據就很成問題。


2020世界人工智能大會云端峰會期間,世博中心一層設置了智能機器人展示區域。圖為智能積木編程機器人。海沙爾 攝


   上觀新聞:通用人工智能如果要處理全局性問題,需要搜集的數據就更復雜了。

   徐英瑾:是的。所以,目前的深度學習機制,其根本問題就是缺乏跨領域學習的能力。這正是人工智能無法通用化、全局化的根本所在。

   在我們的日常生活中,不同的系統有不同的運作方式。國際象棋有國際象棋的下法,圍棋有圍棋的下法。人可以適應變化,要人工智能去適應這一點卻非常難。

   上觀新聞:很多人會問,可不可以把各種專用的人工智能整合為一套通用的人工智能?

   徐英瑾:其中又有一個問題——協同。這就和企業運籌帷幄一樣,需要各個團隊、板塊的協同合作,需要有一個能力全面的人來領導,而人工智能并不具備總體的調度、配置能力。

   為了研究人工智能和人類智能還差在哪兒,一些專家提出了所謂的“卡特爾—霍恩—卡羅爾”三層智力模型。他們把通用智能分解成很多部分,比如流體智力、晶體智力、量化推理、讀寫能力、短期記憶、長期記憶、視覺處理和聽覺處理等。

   量化推理無非就是算術,讀寫能力就是你能不能看懂文章、讀懂要點。晶體智力就好比老師現在給你一道題目,告訴你解法以后,看你能不能把做題的思路遷移到新的題目上。流體智力要求更高,相當大程度上,它強調的是一個靈活調用各種智識能力的狀態。

   至少在目前,人工智能不是根據人類智識能力的發展方向來發展的。長此以往,它的“擬人性”就很成問題,它離真正意義上的通用人工智能就還很遠。


? 体彩黑龙江十一选五计划