Copyright 2018-2025 報(bào)紙迷 版權(quán)所有 京ICP備2018136890號(hào)
人工智能無論多么強(qiáng)大,都必須始終是由人類主導(dǎo)的工具。”圖靈獎(jiǎng)得主姚期智曾這樣表示。
10月22日,未來生命研究所(Future of Life Institute,F(xiàn)LI)宣布,一項(xiàng)由全球知名的人工智能科學(xué)家、政策制定者、商業(yè)領(lǐng)袖及其他社會(huì)各界知名人士共同簽署、匯聚不同政治與社會(huì)背景的空前廣泛共識(shí)的倡議正式發(fā)布,呼吁在“超級(jí)智能”技術(shù)被科學(xué)界普遍認(rèn)定為可控、安全,并獲得公眾廣泛支持之前,暫停其進(jìn)一步發(fā)展。
有報(bào)道稱,截至10月23日中午,這份聲明的簽署人數(shù)已經(jīng)超過3000人。在中國學(xué)術(shù)界,多位知名學(xué)者參與聯(lián)署此次倡議,包括姚期智、清華大學(xué)公共管理學(xué)院院長薛瀾、清華大學(xué)智能產(chǎn)業(yè)研究院院長張亞勤以及人工智能倫理與治理專家曾毅。他們的參與和主張呼應(yīng)了中國長期倡導(dǎo)的“安全、可靠、可控”和“以人為本”的人工智能發(fā)展理念。
曾毅指出:“直到現(xiàn)在,我們還沒有堅(jiān)實(shí)的科學(xué)證據(jù)和切實(shí)可行的方法來確保超級(jí)智能的安全,使其不會(huì)給人類帶來災(zāi)難性的風(fēng)險(xiǎn),世界尚未準(zhǔn)備好迎接不是可控工具的超級(jí)智能。”
人工智能先驅(qū)杰弗里·辛頓(Geoffrey Hinton)、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)、維珍集團(tuán)董事長理查·布蘭森(Richard Branson)也參與了簽名。
蒙特利爾大學(xué)教授、全球引用數(shù)最高的科學(xué)家Yoshua Bengio也指出:“前沿人工智能系統(tǒng)(Frontier AI)可能在未來幾年內(nèi),在大多數(shù)認(rèn)知任務(wù)上超越絕大多數(shù)人類個(gè)體。這些技術(shù)進(jìn)展有望為全球重大挑戰(zhàn)帶來突破性解決方案,但同時(shí)也伴隨重大潛在風(fēng)險(xiǎn)。要安全地邁向“超級(jí)智能”,我們必須通過科學(xué)手段設(shè)計(jì)出在根本上無法傷害人類的人工智能系統(tǒng)——無論是由于目標(biāo)偏差,還是被惡意利用。同時(shí),公眾也應(yīng)在塑造人類共同未來的決策中擁有更強(qiáng)的話語權(quán)。
未來生命研究所同期發(fā)布的一項(xiàng)美國全國性民意調(diào)查顯示,公眾對(duì)當(dāng)前人工智能的發(fā)展方向普遍不滿。僅有5%的受訪者支持目前“無監(jiān)管的AI開發(fā)現(xiàn)狀”,而高達(dá)73%的受訪者支持建立更為嚴(yán)格的監(jiān)管機(jī)制,另有64%的受訪者認(rèn)為,在科學(xué)界尚未就安全與可控性達(dá)成共識(shí)之前,不應(yīng)開發(fā)“超級(jí)智能”。
所謂“超級(jí)智能”,是指能夠在大多數(shù)認(rèn)知任務(wù)上全面超越人類的人工智能系統(tǒng)。多位人工智能領(lǐng)域的頂尖專家認(rèn)為,這樣的系統(tǒng)可能在十年內(nèi)出現(xiàn),但人類目前尚且無法確保如何對(duì)其進(jìn)行有效控制,應(yīng)通過“可控的人工智能工具”來推動(dòng)安全創(chuàng)新,聚焦解決醫(yī)療、能源、教育等具體領(lǐng)域的實(shí)際問題。
倡議與調(diào)查結(jié)果共同反映出一個(gè)正在形成的全球共識(shí):盡管人工智能蘊(yùn)藏著推動(dòng)人類進(jìn)步與繁榮的巨大潛力,但在缺乏安全保障的情況下,盲目發(fā)展超級(jí)智能,可能帶來災(zāi)難性后果。
倡議強(qiáng)調(diào),若人工智能作為“可控工具”應(yīng)用于科學(xué)、醫(yī)療與教育等領(lǐng)域,將有助于推動(dòng)以人為本的人工智能復(fù)興,促進(jìn)人類福祉與全球可持續(xù)發(fā)展。然而,目前部分科技企業(yè)仍在缺乏監(jiān)管、約束與公眾同意的情況下,推動(dòng)潛在危險(xiǎn)的技術(shù)發(fā)展