科學家正傳授人工智能自我解釋能力
一支由多國研究人員組成的科研團隊近期開始向人工智能傳授自我判斷和解釋的能力,并指出做出這個決定的依據(jù)和理由。“黑盒”正變得透明,這對于人工智能領(lǐng)域來說無疑是重大事件。 在人工智能領(lǐng)域搞清楚神經(jīng)網(wǎng)絡(luò)為何做出這些決定是眾多科研專家攻克的方向,黑盒問題本質(zhì)上就是我們真的信任人工智能系統(tǒng)。
該團隊來自伯克利大學、阿姆斯特丹大學、MPI for Informatics以及Facebook的人工智能研究部門,他們的研究建立在此前的工作基礎(chǔ)上,只不過這次他們向人工智能傳授了新的技巧。 所謂“黑盒子”,是指從用戶的觀點來看一個器件或產(chǎn)品時,并不關(guān)心其內(nèi)部構(gòu)造和原理,而只關(guān)心它的功能及如何使用這些功能。但從研究者的角度講,搞清楚內(nèi)部構(gòu)造和原理是必須的。 同人類相同,他能夠“指出”回答某個問題所需要的依據(jù),并通過文本描述的方式來闡述是如何理解這個依據(jù)的。團隊所提出的問題基本上是人類9歲的智力水平能夠回答的問題。 根據(jù)團隊近期公布的白皮書,這是首次人造系統(tǒng)能夠以兩種不同方式來進行自我解釋。在論文中寫道:“我們的模型首次具備提供決定的自然語言判斷以及在圖片中指出依據(jù)的能力! 科研專家開發(fā)的人工智能能夠回答關(guān)于圖像的某些常規(guī)問題,在給定的情境中能夠回答關(guān)于圖像主體和動作的相關(guān)問題。并且該人工智能能夠通過描述所看到的內(nèi)容并且高亮圖片中的某些部分來給出依據(jù)回答。 ![]() ![]() 關(guān)鍵詞: 人工智能
|