【科學的溫度】ChatGPT走紅,人工智能離通過圖靈測試還有多遠?

分享到:

【科學的溫度】ChatGPT走紅,人工智能離通過圖靈測試還有多遠?

2022年12月21日 19:11 來源:中國新聞網(wǎng)
大字體
小字體
分享到:

  中新網(wǎng)12月21日電 (記者 孟湘君)從AlphaGo的“棋藝”,到自動駕駛的“車技”,從調侃ChatGPT的“會聊天就多聊點”,到討論AI繪畫生成的二次元圖像有多驚艷或搞笑,人工智能,似乎正越來越多地成為人們關注的焦點。

  但同時,對于人工智能“不夠聰明”、“存在危險”等聲音,也持續(xù)浮現(xiàn)?,F(xiàn)在很火的一些人工智能運用,未來會取代人類的工作嗎?它們還能更“聰明”嗎?要讓人工智能用起來放心又舒心,還可以怎么做?

  清華大學國強教授、智能產(chǎn)業(yè)研究院(AIR)首席研究員聶再清,對中新網(wǎng)記者分析了當前走紅的一些人工智能應用發(fā)展前景,以及需要注意的問題。

資料圖:聶再清。受訪者供圖

  ChatGPT“有進步”,離圖靈測試還有多遠?

  Open AI此前發(fā)布了一款AI聊天機器人ChatGPT,因為突出的智能對話能力,可以說是火遍全球。聶再清在試用這款機器人后,有不少體會。

  他表示,之前聊天機器人在業(yè)界比較成功的應用是運用基于任務型的對話,通過意圖理解、槽值填充,把問題參數(shù)抽出來,然后去回答用戶問題(智能客服)或幫用戶完成一個智能家居的操作(AIoT語音助手)。這種任務型聊天機器人,還是比較成功的。已經(jīng)能夠通過語音交互,幫助用戶完成很多重復性的工作。

  跟以前聊天機器人技術比起來,ChatGPT最讓人印象深刻的就是每次回答問題(可以是開放域的問題),它都能用像模像樣的人話來答問,同時也會對上下文有一定程度的理解。不看具體知識點的話,看上去好像回答得很專業(yè)。

OpenAI官網(wǎng)介紹ChatGPT為一種”優(yōu)化對話的語言模型“。圖片來源:OpenAI官網(wǎng)截圖

  聶再清同時指出,如果提問人對問題答案沒有了解的話,會覺得ChatGPT“回答得都不錯”;但對于一些不常見,提問人又知道答案的問題,ChatGPT很可能“會用一本正經(jīng)的口氣,編出錯誤答案”。

  他表示,這款機器人本質上還是一個基于統(tǒng)計的語言模型,應該沒有真正理解開放域的問題。它在處理開放域的問題上實際上還是基于概率,基于前一個值來生成下一個值。要通過圖靈測試,還要繼續(xù)努力。至于如何改進,聶再清指出,如果能把能回答問題的正確知識放到它說的話中去,“那就厲害了”。

  AI繪畫背后,離藝術家還有多遠?

  與聊天機器人類似的,還有最近在短視頻平臺走紅的AI繪畫。這是一種將海量二次元畫面預錄入,通過大數(shù)據(jù)尋找畫面構圖、形狀、色彩等方面的相似元素,按照AI 解讀生成新畫面的應用。在短視頻平臺上,一鍵操作,就可以把網(wǎng)友們的照片轉換成二次元畫面,輸出結果有很大隨機性,經(jīng)常讓人啼笑皆非,但網(wǎng)友樂此不疲。

  “把任何照片變成二次元這個功能本身,還是蠻有意思的”,談到AI繪畫,聶再清認為,這是人工智能一個有趣的產(chǎn)品開發(fā)方向。

資料圖:世界VR產(chǎn)業(yè)暨元宇宙博覽會上,一名女子觀看“元宇宙藝術”里的藝術作品?!⒄祭?攝

  但同時,聶再清指出,作畫是有邏輯的,AI畫作的過渡、線條、細節(jié)上與真人相比,還是有差距。最主要的是,藝術來源于生活的沉淀,真正的藝術家的藝術價值,來自其作品背后的感染力。

  他進一步指出,雖然AI也可能碰巧畫出一些貌似有感染力的作品,但要在特定情境下要求其畫作必須具備某種感染力,難度還是非常大的??傮w而言,AI繪畫可能對以商業(yè)營銷為主、從事重復性勞動、不純粹追求藝術價值的畫手有威脅,但要取代真正的畫家、藝術家,還言之過早。

  自動駕駛離大規(guī)模落地,還有多遠?

  在生活中人們越來越多聽到或者接觸到的另一個項工智能應用,就是自動駕駛。如今街頭能實現(xiàn)自動或半自動駕駛的車輛越來越多,但相關車輛出現(xiàn)險情,也常見諸報端。

  一邊是科技發(fā)展,一邊是風險防范。如果要讓L5全自動駕駛實現(xiàn)社會面的大規(guī)模落地,聶再清認為,有幾大“注意事項”。

  第一,他指出,最重要的一點,就是基礎設施的建設和完善。

  如果要自動駕駛,道路和現(xiàn)在是不一樣的,比如說未來道路所有信號都數(shù)字化并且直接發(fā)送到車上,告知車輛現(xiàn)在是紅燈,那也就沒必要在視覺上識別紅綠燈了;比如前方有事故,道路系統(tǒng)可以自動提示所有事故后方的車輛全部知曉。

  他同時指出,現(xiàn)在自動駕駛和人類駕駛員如果同時存在的話,需要面臨的一個關鍵問題,實際上就是人跟車、人跟機器間的博弈還沒有搞清楚。機器要準確判斷人類駕駛員的每一個意圖,現(xiàn)在還比較困難。聶再清希望,基礎設施可以有比較大的改進,改進后,如果真正能做到所有上路的車都是自動駕駛,事故率應該會降低很多。

資料圖:第19屆東博會上,自動駕駛巴士模型吸引市民關注?!∮峋?攝

  第二,一旦自動駕駛大規(guī)模落地,需要有一個遠程控制中心和“云代駕”,來覆蓋所有路段。

  聶再清表示,雖然到時人不再“開”車了,但在云端一定要有人能監(jiān)控各地路況、車況是否正常,有沒有問題。如果出現(xiàn)問題,遠程控制中心和“云代駕”機構人員要發(fā)揮作用,管理好情況。比如,他設想交警未來可以在“云上”處理交通事故,以及車輛出現(xiàn)系統(tǒng)性故障時,通過遠程恢復等。

  第三,要實現(xiàn)自動駕駛,需要一套完善的安全測試體系、一個新功能灰度內測的體系。

  對此,聶再清指出,無人車的安全等級到底達沒達標,新功能上線會不會帶來大規(guī)模傷害等,一定是一步步地先做測試,從無人路段測試,到線上小范圍路段內不斷放開的一個過程。建成這樣一個體系要完善,要能夠快速迭代,同時要保證安全。否則自動駕駛系統(tǒng)會面臨更新問題,一更新就可能出錯,所以答好這道題,也很重要。

  第四,聶再清強調,要做好系統(tǒng)故障的容錯機制。假設屆時自動駕駛道路系統(tǒng)出現(xiàn)一個系統(tǒng)性故障,就可能導致幾萬輛車同時受影響。有了容錯機制,就可能將系統(tǒng)回滾到前一個版本,要保證這種機制不能出錯。

  第五,自動駕駛大規(guī)模測試之前,最好還要有一個機制,就是任何自動駕駛決策是可解釋的。聶再清舉例稱,這意味著人如果有需要,可以隨時隨地查詢自動駕駛車輛的每一個決策及其決策的具體理由,也可以隨時隨地接管機器的決策,形成一套人機對話和協(xié)作機制,這樣才能大大地提升自動駕駛的安全性。(完)

【編輯:孟湘君】
發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務經(jīng)書面授權。
未經(jīng)授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評論

頂部