和訊財經端 註冊

軟CEO納德拉新書談AI:人工智能必須是透明的

2018-01-10 10:30:03 新浪網  納德拉
歡迎關註“創事記”的微信訂閱號:sinachuangshiji
 

  微軟CEO納德拉談與蘋果的關系:共存與競爭

  編者按:從某種意義上講,微軟現任CEO納德拉是印度族裔在矽谷的“統治力”的一個最佳例證。

  從只身赴美的印度青年,到一家市值超6000億美元、在世界範圍內享有盛譽的跨國公司的CEO,納德拉完成了從一個優秀技術人員到一個傑出管理者的蛻變。自2014年上任以來,納德拉帶領微軟積極轉型,三年時間使微軟市值翻番,增加3000億美元,達到17年以來的高點。

  《刷新:重新發現商業與未來》是微軟CEO薩提亞·納德拉首部作品,全景地回顧了他上任三年來的變革路徑,並系統地總結了他的核心管理思想。

  以下為節選:

  未來,人工智能將成為一種更常見、更重要的陪伴者,它們可以在照顧老弱病殘孕、診斷疾病、教學和咨詢方面提供幫助。

  據市場研究公司Tractica估計,到2021年,這些虛擬數字助理的市場規模將升至近160億美元,其中大部分增長都來自消費者。如果不用情商來搭配智商使用,人工智能就會走向失敗。

  幾乎可以這麽說:我們是在創造一個新的物種,一個在智力上可能沒有上限的物種。一些未來主義者預測,所謂的奇點,即計算機智能超越人類智能的時刻,可能會在2100年之前到來(而另一些人聲稱這將仍然只是科幻作品中的暢想)。這種可能性聽起來令人振奮,但也讓人覺得有點可怕—也許兩者都有一些。

  人工智能的發展最終會對人類有助還是有害呢?我堅信是有助的。為了確保這種情況的發生,我們需要跳出“機器對比人類”這個框架來思考。

  科幻作家常常陷入數字對人類的遊戲中,甚至技術創新者本身也是如此,就好像是雙方在開展一場爭霸戰一樣。1996年,IBM的“深藍”(Deep Blue)展示了計算機可以在高級別的棋牌遊戲中戰勝人類,這件事登上了新聞頭條。第二年,“深藍”又向前邁進了一大步,在六局一場的比賽中擊敗了俄羅斯國際象棋傳奇人物加裏·卡斯帕羅夫(Garry Kasparov)。在一個歷來被視為人類智慧巔峰的領域中,看到人類被計算機戰勝,這著實令人震驚。而到了2011年,IBM的“沃森”(Watson)已經在美國智力問答競賽節目《危險邊緣》(Jeopardy)中擊敗了兩位大師級選手。2016年,谷歌DeepMind的阿爾法圍棋(AlphaGo)戰勝了韓國圍棋高手李世石。圍棋是一種歷史悠久的、復雜的策略遊戲,使用的是19×19棋盤。

  毫無疑問,這些都是科學和工程上的巨大成就。但是,除了計算機在遊戲中擊敗人類之外,未來還有更光明的前景。最終,人類和機器將進行合作,而不是相互對抗。

  想象一下,當人類和機器共同努力解決最大的社會挑戰—疾病、愚昧和貧困的時候,可能會發生什麽事吧。

  然而,將人工智能推向這個水平將需要更加雄心勃勃的努力。微軟劍橋研究實驗室負責人克裏斯多夫·畢曉普(Christopher Bishop)曾經寫過一則備忘錄,說這更需要的是類似於整個太空項目的那種努力—多個並行的、獨特的但相互關聯的登月計劃。挑戰在於如何為人工智能界定其具有使命性的、宏偉的、鼓舞人心的社會目標。這個領域的風險投資和交易都在明顯增加,但這種投資的更宏大目標仍不清楚。1969年,當約翰·F.肯尼迪(JohnF.Kennedy)總統承諾美國將在那一年登上月球時,這個目標之所以被選中,在很大程度上是因為它提出了巨大的技術挑戰,需要進行全球性的合作。我認為,我們就需要像這樣為人工智能設定一個非常大膽的、雄心勃勃的目標,而不僅僅是那種對當前技術進行增量改進就可以實現的任務。現在是時候在人工智能領域進行更大規模的協調和協作了。

  大家已經朝著這個方向采取了一些行動。2016年,微軟、亞馬遜、谷歌、臉譜網和IBM宣布了人工智能合作夥伴關系,希望用它惠及人類和社會。此舉的目的是增進公眾對人工智能的認知,制定與該領域挑戰和機遇有關的最佳實踐。這個合作夥伴關系將在汽車和醫療、人機人工智能協作、經濟衝擊,以及人工智能如何用於社會公益等諸多領域,推動安全人工智能系統的開發和測試。

  太多關於人工智能未來的辯論都忽視了機器和人類合作的潛在之美。我們對人工智能的看法似乎被困在電影《2001太空漫遊》(2001:ASpace Odyssey)中那個流氓計算機HAL的惡意回聲和今天的個人數字助理小娜、Siri和Alexa(一家專門發布網站世界排名的網站)的友好聲音之間。有些人會夢想,當機器為我們開車,處理我們日常瑣事,並幫助我們做出更好的決定時,我們將如何利用突然多出來的空閑時間。有些人則在擔心機器人會引起大規模的經濟衝擊。我們似乎無法超越這種烏托邦和反烏托邦的非黑即白觀念。

  我認為,人工智能方面最有成效的辯論並不是善與惡的對抗,而是要看一看創造這種技術的人和機構被灌輸了怎樣的價值觀。約翰·馬爾科夫(John Markoff)在《與機器人共舞》(Machines of Loving Grace)一書中寫道:“在充滿智能機器的世界中,控制方式是一個問題,解決它的最好方法就是了解實際構建這些系統的人具有怎樣的價值觀。”這是一個有趣的觀點,也是我們這個行業必須致力於解決的事情。

  在開發者大會上,我以三個核心原則為基礎解釋了微軟的人工智能策略。

  第一,我們要建立一種增強人類能力和體驗的人工智能,而不是從人對比機器的角度來開發的人工智能。我們要把重點集中在人類的天性上,比如創造力、同理心、情感、身體的物理性,以及可以與強大的人工智能計算結合起來的洞察力—可以更快速地對大量數據進行推理並進行模式識別的能力—以此來推動社會進步。

  第二,我們也要把信任直接構建在技術之中。我們必須把隱私保護、透明度和安全性註入技術中。人工智能設備必須在設計上具有檢測出新的威脅,並找出適當的保護方法的能力。

  第三,我們構建的所有技術都必須包容和尊重每個人,為人類服務,不分文化、種族、民族、經濟地位、年齡、性別和身心能力。

  這是一個好的開始,但我們可以做得更好。

微軟CEO納德拉新書談AI:人工智能必須是透明的

  科幻作家艾薩克·阿西莫夫(Isaac Asimov)幾十年前就在思考這個挑戰。在20世紀40年代,他提出了“機器人三定律”(Three Laws of Robotics),將其作為他的小說中機器人的倫理規範。阿西莫夫定律是有優先級的,第一條優先於第二條,第二條優先於第三條。第一,機器人不應該做出傷害人類的事情,也不應該通過不作為來傷害人類。第二,它們必須服從人類的命令。第三,它們要保護自己。對於思考人機交互來說,阿西莫夫定律是一個易用的、很有啟發性的工具,而且對於構思一個這種交互陷入道德和技術困境的故事來說也是一個有效的工具。然而,它們並沒有充分體現研究人員和科技公司在構建計算機、機器人或軟件工具時首先應該闡明的價值觀或設計原則。它們也沒有討論人類必須在時代擁有怎樣的能力,在那個時代,人工智能和機器學習將是一股更廣泛的經濟推動力。

  對風險進行思考的並不只有阿西莫夫一個人。發明家和創業家埃隆·馬斯克甚至說,如果不給人類的大腦增加一個數字智能層—你的皮質和計算機人工智能之間的高帶寬,那麽我們都會變得和家貓差不多。計算機先驅艾倫·凱(Alan Kay)則表示:“預測未來的最好方法就是創造未來。”從人工智能的角度來說,他的意思基本上是,不要預測未來會是什麽樣子了,而要以一種有原則的方式創造未來。我同意這個觀點。和任何軟件設計上的挑戰一樣,一個平臺在建立之初就應該采取這種有原則的做法。從軟件開發的角度來說,人工智能正在成為第三運行時—也就是系統,程序員在這個系統之上構建和執行應用程序。個人計算機是微軟開發應用程序的第一運行時,這些應用程序包括Of ce工具套件—Word、Excel和PowerPoint等。今天,Web是第二運行時。而在人工智能和機器人的世界中,生產力和溝通工具是為一個全新的平臺構建的,這個平臺所做的事情不僅僅是管理信息,還包括從信息中學習,與物理世界交互。

  如今,人們正在決定第三運行時的面貌。比爾·蓋茨在1995年春季發布的備忘錄《互聯網浪潮》(Internet Tidal Wave)中,預見了互聯網對連接、硬件、軟件開發和商業的影響。20多年後的今天,我們正在展望一波新的浪潮—人工智能浪潮。那麽當我們為即將到來的海嘯做準備時,應當用什麽樣的通用設計原則和價值觀來指導我們思考、設計和開發呢?

  有幾個人牽頭提出了這個問題。麻省理工學院媒體實驗室的辛西婭·布雷紮爾(Cynthia Breazeal)致力於探索人工智能和機器人技術的人性化方法。她認為,技術人員經常忽略設計中的社交和行為元素。辛西婭在最近的一次訪談中說,雖然人類是所有物種中最具社交性和情感的,但我們基本上沒有花費什麽時間來思考技術設計中的同理心問題。她說:“畢竟,我們總是通過溝通和協作來體驗這個世界。如果我們對與我們合作的機器感興趣,那麽我們就不能忽視人性化的方法。”

  在我們推動人工智能發展的過程中,最重要的步驟就是對人工智能設計達成一個倫理和同理心的框架—這是開發那種不僅規定了技術要求,還規定了倫理和同理心的系統的一種方法。為此,我已經考慮了人工智能設計的原則和目標,我們應該作為一個行業、一個社會來對此進行討論和辯論。

  人工智能的設計初衷必須是為人類提供幫助。即使我們研發的是更加自主的機器,我們也需要尊重人類的自主權。協同機器人(co-bots)應該承擔一些危險的工作,比如采礦,從而為人類工人提供安全網和保障。

  人工智能必須是透明的。不僅僅是技術專家,我們所有人都應該明白技術是如何運作的,其規則是怎樣的。我們想要的機器不僅是智能的,而且是可以讓人理解的;不僅僅是人工智能,而是共生智能。這種技術對人類很了解,但人類也必須了解技術是如何看待和分析世界的。如果你的信用評分出了錯,你卻無法糾正它怎麽辦?當社交媒體收集有關你的信息,卻得出了錯誤的結論,這時就會需要透明度。倫理和設計是息息相關的。人工智能必須最大限度地提高效率,同時又不會損害人的尊嚴。它應該保護文化,賦能於多樣性。為了確保達成這樣的結果,這些系統在設計時需要人們進行更廣泛、更深入和更加多樣化的參與。未來的價值觀和美德不應該由技術行業來決定,也不應該僅僅由北美、西歐和東亞這些富強之地的居住者來控制。每個文化背景的人都應該有機會參與塑造人工智能設計中固有的價值觀和宗旨。人工智能必須警惕社會和文化偏見,確保研究具有適用性和代表性,讓那些有缺陷的思維方法不會在故意或無意中導致歧視長存。

  人工智能在設計上必須註重智能隱私,能夠為個人和群體信息提供精密的保護,程度要足以贏得人們的信任。

  人工智能必須具備算法問責制,這樣人類就可以撤銷那些引發意外傷害的做法。我們必須為預料之中的和預料之外的情況設計這些技術。

  這些倫理方面的考慮有很多都是結合在一起的,比如在我們的數字體驗中就是如此。越來越多的算法會根據你以前的行為和偏好來影響你的體驗—我們閱讀什麽內容,我們遇到什麽人,我們可能會“點贊”什麽東西。我們每天都會收到數百次這樣的建議。我覺得這就提出了一個問題:在這樣一個世界裏,自由意誌意味著什麽,它又是如何影響到在觀念上差異懸殊的用戶和社區的?在設計內容和信息平臺時,社會的多樣性和包容性有什麽作用?在理想情況下,我們很清楚自己的數據是如何運用於個性化內容和服務的,我們應該可以控制這些數據。但隨著我們越來越多地進入一個復雜的人工智能世界,事情就並不總是那麽容易了。我們如何保護自己和社會免受信息平臺的不利影響—這些平臺越來越多地建立在人工智能之上—是優先考慮互動度和廣告收入,還是優先考慮事實、意見和情境的社會多樣性可以帶給我們的寶貴教益?這是一個重大問題,需要進行更多的思考。

  但對人類來說,也有一些“務必”做到的事情,特別是需要清楚地考慮到未來世代必須優先考慮和培養的技能。為了不和時代脫節,我們的後代將需要:

  同理心——同理心在機器中難以復制,在人類與人工智能的世界中,它將是無價的。對合作和建立關系來說,感知別人的想法和感受是一種至關重要的能力。

  如果我們希望利用技術來滿足人類的需要,我們人類就必須培養更深入地理解和尊重彼此的價值觀、文化、情感和驅動力的能力,來發揮引導作用。

  教育——有些人認為,由於人類壽命的延長,出生率下降,在教育上的支出也會減少。但我認為,創造和管理我們今天還不能理解的創新,需要我們增加對教育的投入,以獲得更高層次的思維方式和更公平的教育成果。大規模實施新技術需要知識和技能,而培養這些知識和技能是一個艱難的社會問題,需要很長時間才能解決。動力織布機是在1810年發明的,但由於缺乏訓練有素的技術人員,這個發明花了35年的時間才轉變了服裝行業的面貌。

  創造力——人類最出類拔萃的技能之一就是創造力,這一點不會改變。機器將豐富和增強我們的創造力,但人類創造事物的動力將一直處於中心位置。小說家裘帕·拉希裏(JhumpaLahiri)在一次采訪中被問及,為什麽她擁有如此特別的英語文采,新作品卻要使用她的第三語言意大利語來寫,她回答說:“繼續尋找,這不就是創造力的要義嗎?”

  判斷和問責——我們可能願意接受計算機生成人與機器的未來的診斷或法律決定,但我們仍然希望對結果負責的是人類。

(責任編輯:趙然 HZ002)
看全文
和訊網今天刊登了《軟CEO納德拉新書談AI:人工智能必須是透明的 》一文,關於此事的更多報道,請在和訊財經客戶端上閱讀。
寫評論已有條評論跟帖用戶自律公約
提 交還可輸入500

最新評論

查看剩下100條評論

熱門新聞排行榜

和訊熱銷金融證券產品

【免責聲明】本文僅代表作者本人觀點,與和訊網無關。和訊網站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,並請自行承擔全部責任。