通用人工智能向善國際會議召開,騰訊提出AI倫理框架確保AI向善

| 学术观点 2019-02-27 00:00:00 

 作者: 浏覽次數:2021

通用人工智能(artificial general intelligence,AGI),根据维基百科的定义,是指达到或超越人类智慧的人工智能,能表现出正常人类所具有的所有智能行为,亦称强人工智能(Strong AI)。

這是組織1956年達特茅斯人工智能會議的人工智能領域的奠基者最初的夢想。按照I. J. Good的智能大爆炸理论,AGI出现后,其可能设计出比人类智能更为强大的智能体,即所谓的超级人工智能(artificial super intelligence,ASI)。

然而實際上,實現通用人工智能並非易事,在上個世紀七八十年代,主流人工智能研發逐漸遠離了通用智能系統的目標,轉向爲特定領域和特定問題尋求解決方案。結果是,現如今被稱爲“人工智能”的領域被分割爲許多關聯松散的子領域。

如今,伴随着深度学习取得突破性进展,人工智能迎来第三次发展浪潮,各国纷纷将人工智能确定为国家战略,通用人工智能的热潮重来,相关的会议、期刊、协会、研究机构等相继出现。业内的DeepMind、OpenAI等将通用人工智能作为人工智能技术攻坚的核心方向。腾讯亦积极推动“通用人工智能”,通过AI实验室和Robotics X实验室合力攻坚“通用人工智能”这一终极目标。

通用人工智能已然“炙手可热”。在此背景下,2019年1月4日到7日,Elon Musk资助的未来生命研究所(Future of Life Institute,FLI),在波多黎各(Puerto Rico)组织举办为期两天半的“向善的通用人工智能2019(Beneficial AGI 2019)”国际研讨会,邀请了150多位来自全球各地的各领域顶级人工智能专家,从跨学科、跨领域的角度共同探讨通用人工智能的安全、实现路径及可能的后果、治理及对策、国际合作等话题。

DeepMind等AI企業也受邀參加,其中騰訊爲唯一受邀的中國科技公司,騰訊研究院院長司曉、騰訊研究院首席研究員蔡雄山等參加了本次會議。騰訊研究院院長司曉在會上展示並闡釋分享了騰訊董事會主席馬化騰在2018年世界人工智能大會上提到的人工智能“四可”(可用、可靠、可知、可控,英文簡稱ARCC)理念,獲得了與會專家的認可。司曉還參與了關于人工智能國際合作的圓桌研討,分享騰訊在人工智能倫理領域的思考和探索,並呼籲國際社會制定倫理原則來引導、約束未來人工智能健康發展應用。  

        

这是未来生命研究所第三次举办关于人工智能的年度国际会议。第一次会议为“AI的未来:机遇与挑战”;第二次会议为主题为“向善的人工智能(Beneficial AI)”的“2017阿西罗马会议”,本次会议达成了广为关注的23条阿西洛马人工智能原则。与前两次会议不同的是,此次會議的主題更爲聚焦,圍繞有望徹底變革現在的經濟與社會的AGI,探討其技術實現方式、未來AGI的機遇與挑戰,以及確保未來設計出來的AGI造福于人類發展的措施。

通用人工智能的安全研究需要破除誤解,未雨綢缪


通用人工智能是AI領域的桂冠,也是備受爭議的話題,全世界的頂尖專家對此爭論不休,包括AI對勞動力市場的未來影響,AGI是否/何時出現,AGI是否會導致智能大爆炸從而出現超級人工智能(ASI),我們是否應當擁抱或懼怕AGI和ASI,等等。人們對通用人工智能到來後的人類及人類社會命運也衆說紛纭,已故的霍金以及伊隆·馬斯克、比爾·蓋茨等名人認爲AGI對于人類而言可能是一場巨大的災禍。

未来生命研究所创始人、《生命3.0》一书作者Max Tegmark认为AGI将可能于本世纪内出现,为了确保将来可能出现的AGI和ASI服务于全人类的利益,现在就需要加强对AGI安全问题的研究,这既是他发起成立未来生命研究所的初衷,也是举办本次AGI会议的目的。

在演講中,Max分享了人們對通用人工智能的一些常見誤解。比如,對AGI出現時間的誤解,認爲AGI不可避免或絕無可能,實際情況是全球頂尖專家對AGI是否/何時出現尚沒有共識,猜測認爲可能需要幾十年、幾百年或者永遠都不會出現。2045年是未來生命研究所第一次AI年度會議上與會專家給出的平均時間。

另一個誤解關于超級智能的風險,擔心人工智能、機器人作惡或産生意識,從而可能威脅人類生存,事實是AI變得越來越強大但其目標卻可能偏離人類的目標,所以偏離方向的AI才是最大的擔憂,無需形體,只需有互聯網連接即可。此外,其他誤解包括AI不可能控制人類、機器不可能有目標、超級智能近在眼前,等等。

在Max看來,只有澄清了關于AGI的諸多誤解,人們才可能對AGI的安全問題進行嚴肅認真的討論和研究。AGI研究不應把時間浪費在誤解和錯誤概念上。你希望未來是什麽樣子的?人們應否開發致命性的AI武器?AI如何影響工作?你希望創造超級智能生命體嗎?將來是我們控制智能機器還是它們控制我們?智能機器取代我們還是與我們共生抑或與我們融爲一體?這些才是Max真正關心的問題,需要進行更多、更有效的跨學科、跨領域研究。

AI最终可能超越人类能力,需要可证明的有益AI模型(provably beneficial AI)来确保安全


经典AI教科书《人工智能:一种现代方法》的作者Stuart Russell,发表了题为“可证明之有益AI(Provably Beneficial AI)”的演讲。在美国、英国、法国、欧盟、中国等都持续加大投入、加速发展人工智能的趋势下,他认为在未来AI系统将能处理海量信息,做出比人类更好的决策,如驾驶汽车、做出医疗诊断等。因此未来能够获取更强大的智能将是人类文明的一大飞跃。

但人們也擔心可能出現的負面影響,如殺戮機器人、大規模失業、人類滅絕等。正如維納在1960年所言,“我們最好相當確信,我們賦予機器的目標,正是我們真正希望的目標。”

維納的警告指出了AI安全領域的一個主要問題:价值耦合(value alignment),即我们不希望智能机器做出的行为是为了实现它们自己的目标,相反,智能机器的行为应是为了实现我们人类的目标。

隨著AI的廣泛應用甚至將來可能出現AGI和ASI,價值耦合的問題將越來越突出而重要,如果發展應用不當,便有可能發生類似電影《2001太空漫遊》中人工智能系統HAL爲了實現預定的目的而企圖殺害人類宇航員的事情,給個人和社會帶來災難性後果。

为此,Stuart提出了三个简单的理念:第一,机器人的唯一目的是最大化地实现人类的偏好;第二,机器人一开始并不确定人类的偏好是什么;第三,关于人类偏好的来源信息是人类行为。这意味着,机器人可以从人类行为中学习,如合作的反向强化学习(cooperative IRL)。

最后,Stuart认为,AI最终可能超越人类能力,出现所谓的ASI,但我们可以通过可证明的有益AI(provably beneficial AI)模型来确保AI安全,这需要来自AI、计算机科学、经济学、认知科学、心理学、政治科学、哲学等领域的研究配合与协同,同时也需要启动智能助手、机器人、自动驾驶汽车等领域的实践工作。

在技术安全研究方面,蒙特利尔大学的AI学者David Krueger总结了当前AI安全研究的两大路径。其一是人机回环(human-in-the-loop)的方法,包括超人类反馈(涉及迭代放大/辩论、递归奖励建模等)、CIRL即协同反向强化学习以及全面的AI服务框架。其二是理论方法,包括代理基础(agent foundations)、副作用/影响测量、验证/安全等方法。

AI安全離不開倫理保障,騰訊在會上提出AI倫理框架以確保“AI向善”


除了從技術安全角度研究確保AI安全的可行技術方法和手段外,還需要從倫理層面爲AI安全提供引導和約束,以確保“AI向善”。在本次會議的Poster環節,騰訊研究院院長司曉向與會的國際AI專家展示並介紹了騰訊系統提出的AI倫理框架即“ARCC”,獲得了與會專家的關注和認可。

在司曉看來,正如44年前在阿西洛馬舉辦的重組DNA會議,140名各界專家討論了生物科技的潛在影響及其規制,達成了自願性的倫理指南,旨在確保重組DNA技術的安全一樣,如今我們需要就AI技術應用的潛在影響及其規制達成類似的倫理規則甚至法律規則,以便將技術發展框定在一個對人類有益或向善的範圍內。

A即available(可用),發展人工智能的首要目的,是促進人類發展,給人類和人類社會帶來福祉,實現包容發展和普惠發展。爲此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現技術鴻溝。

R即reliable(可靠),人工智能應當是安全可靠的,能夠防範網絡攻擊等惡意幹擾和其他意外後果,實現安全、穩定與可靠。

C即comprehensible(可知),人工智能應當是透明的、可解釋的,是人可以理解的,避免技術“黑盒”影響人們對人工智能的信任。

C即controllable(可控),人工智能的發展應置于人類的有效控制之下,避免危害人類個人或整體的利益。

ARCC發音同“ark”,寓意“方舟”,正如傳說中拯救人類文明的諾亞方舟一樣,人工智能領域的ARCC也將在未來的人工智能時代尤其是可能到來的AGI和ASI時代,確保人類與機器之間友好、和諧的關系,最大化地促進人類的發展,並避免潛在負面影響。在此次會議的“AI國際合作圓桌研討”環節,司曉進一步向與會專家介紹了騰訊在科技倫理、科技向善上的思考與探索。包括最早將IEEE的AI倫理白皮書、阿西洛馬人工智能原則等國際上重要的人工智能倫理倡議譯介到國內,持續研究並輸出AI治理、倫理相關的研究成果並參與AI治理領域的國際論壇以貢獻中國智慧,發起“科技向善”計劃並在騰訊的産品和服務中積極踐行科技向善理念,等等。

AI治理是全球性挑戰,亟需提上日程


牛津大学人类未来研究所AI治理中心的Allan Dafoe分享了对AI战略、政策和治理的思考。治理(governance)意味著做出和執行決策所依賴的程序,包括規範、政策、制度、法律等。好的治理意味著這些手段和機制是有效的、合法的、包容性的、適應性的。

如今随着各国争相发展AI,AI作为通用目的技术有望彻底变革经济、社会、军事等领域,所以迫切需要加强AI治理,但依然面临来自技术发展、政治等方面的诸多挑战,包括危害和利益的分散性、技术高速動態变化、技术复杂性、双重使用、责任不确定等问题。

在他看來,理想的AI治理,應當包括價值、原則、積極願景、制度設計、規範構建等層面;同時在政策制定上需要特別考慮如何將長遠目標轉換爲短期內具體的政策計劃。

在“AI治理圓桌研討”環節,騰訊研究院高級研究員曹建峰分享了他對AI治理的看法。面對AI帶來的新的風險挑戰,既有的法律倫理規範是不充分的。

他認爲,對于AI治理,未來將需要從三個層面來展開。

其一是倫理規範,需要在公司、行業、國家層面就人工智能倫理原則和框架達成共識並落實到人工智能研發應用中,因爲在技術加速、法律滯後的趨勢下,需要更多依靠倫理規則來發揮事前的引導和規範作用,來確保AI向善。

其二是法律規範,從具體的行業出發對自動駕駛、無人機、醫療診斷、機器人等具體的人工智能應用進行監管,以實現鼓勵創新與保障安全的平衡。

其三是國際標准、規則的制定,AI治理是國際性話題,需要國際社會的協調與合作來爲人工智能研發應用設定倫理、國際法等方面的共同性要求,以確保人工智能可以造福于全人類和全世界的發展。

AGI之路依然任重而道遠


AGI的出现时间及其实现方法以及AGI是否会导致ASI的出现依然高度不确定。加拿大的AI领军者Yoshua Bengio以“通往AGI的挑战”为题进行了分享。

在他看來,當前AI領域的進步主要得益于深度學習,但深度學習離所謂的人類水平的AI還非常遙遠。一方面深度學習的很多成就基于監督學習,另一方面深度學習只能學習到表面的膚淺知識,不具有舉一反三的概括能力,而且深度神經網絡可以被輕易地糊弄。

再者,當前的自然語言處理方法並不能賦予人工智能以真正的理解能力和常識能力,比如AI對前後文中出現的代詞的理解遠遠低于人類。此外,當前最好的AI系統尚不具有像人類一樣的心理能力和移動能力。

所以AI下一步需要從被動智能向主動智能轉變,從感知能力擴大到推理、行動規劃等高級能力,同時需要掌握世界模型以獲取因果結構,並持續從人機協同、神經科學、認知科學等領域獲取啓發,從而克服當前的障礙以通往AGI。

对于AGI的可能实现路径,与会的专家学者也进行了激烈的脑暴。比如,会上有学者认为智能来源于人类的大脑和世界的结构,所以可以通过对人类大脑实施反向工程来实现AGI,这即是所谓的模拟大脑学派。英国的AI权威学者Nick Bostrom分享了他在《超级智能》中提出的一些可能的超级智能的实现路径,包括大脑仿真、生物认知、脑机接口等。


暢想AGI到來後的社會是什麽樣子的


在《生命3.0》一書中,馬克斯·泰格馬克暢想了AGI引發的智能爆炸可能給人類社會帶來的後果,諸如人類、賽博格、上傳者和超級智能和平共處的自由主義烏托邦,人工智能成爲善意的獨裁者,人類、賽博格、上傳者等平等相處的平等主義烏托邦,人工智能成爲看門人、守護神、被奴役的神等,人工智能成爲人類的征服者,人工智能取代人類成爲人類的後裔,等等。

雖然AGI尚未到來,但本次會議前瞻性地討論的一些涉及AGI的問題同樣值得人們思考。我們應當建造超級智能嗎?AGI到來之後,人類應當如何存在?誰或什麽應當享有控制?我們是否期望AGI具有意識?人類文明爲之奮鬥的目標應當是什麽?未來人類還需要工作嗎?如果AGI讓所有人都失業,該如何給人們提供後工作時代的收入、目標、意義和人際交往呢?

雖然與會專家對這些問題沒有達成共識,但持續思考這些問題才能確保我們將來打造的AGI是我們想要的,是符合全人類的利益的。

初步的十項共識確保AI向善


最後,本次會議的與會專家初步達成了十項共識。這十項共識即是通用人工智能應當追求的十大目標,包括物質充盈、漸進主義、人類福祉、魯棒性、多樣性、可持續性、繁榮、和平、幸福、無疾病等。這十項初步的共識代表了與會專家對未來人工智能發展的期許。

当然,这些目标以及其他目标的实现,依赖于AI领域当前进行的各种研究,包括类似BAGI 2019会议这样的跨学科讨论和研究,从而共同从技术、政策、规范、制度等层面确保将来可能创造出来的AGI和ASI成为人类社会最美好的事物,为人类塑造最美好的未来。

會議官網:https://futureoflife.org/beneficial-agi-2019/

查看全文
相關2978棋牌