訂閱
糾錯(cuò)
加入自媒體

卡內(nèi)基梅隆大學(xué)開(kāi)發(fā)AI屆的“歐亨利”,能斬獲普利策獎(jiǎng)嗎?

高級(jí)的自然語(yǔ)言處理系統(tǒng),比如OpenAI的GPT-2,可以寫(xiě)出人性化的語(yǔ)言,這一點(diǎn)令人印象深刻。然而,這樣的人工智能的語(yǔ)言往往缺乏說(shuō)服力和連貫性。其最顯著的特點(diǎn)就是他們難以寫(xiě)出令人信服的作品——人工智能生成的故事往往是通用的,缺乏上下文。

為解決這一問(wèn)題,卡內(nèi)基梅隆大學(xué)計(jì)算機(jī)科學(xué)學(xué)院的科學(xué)家們?cè)O(shè)計(jì)出一種方法,即為一個(gè)給定的故事創(chuàng)造更多“多樣化”的結(jié)尾。他們表示,研究的關(guān)鍵是訓(xùn)練人工模型把注意力集中在故事的重要短語(yǔ)上,促進(jìn)非通用詞的生成。

“故事情境由連接人物和事件的一系列句子構(gòu)成。這項(xiàng)任務(wù)具有挑戰(zhàn)性,因?yàn)樗枰獙?duì)上下文中的角色,事件和對(duì)象進(jìn)行建模,然后根據(jù)它們生成連貫且合理的結(jié)尾。概括事件和實(shí)體的語(yǔ)義以及它們?cè)诓煌适轮械年P(guān)系是一項(xiàng)非常重要的任務(wù),”合著者寫(xiě)道,“我們的研究表明,兩者的結(jié)合會(huì)帶來(lái)更多樣、更有趣的結(jié)局!

團(tuán)隊(duì)利用seq2seq模型(一種長(zhǎng)短期記憶遞歸神經(jīng)網(wǎng)絡(luò)架構(gòu),能夠?qū)W習(xí)依賴(lài)關(guān)系),并創(chuàng)建符合目標(biāo)故事情境的文字的數(shù)學(xué)表示,學(xué)習(xí)這些文字之間的關(guān)系,將他們轉(zhuǎn)化為人類(lèi)可讀的文本。為了整合故事上下文中的關(guān)鍵短語(yǔ),研究人員使用了一種名為RAKE的算法,該算法根據(jù)單詞的出現(xiàn)頻率和共現(xiàn)度為短語(yǔ)分配分?jǐn)?shù),然后根據(jù)相應(yīng)的分?jǐn)?shù)對(duì)短語(yǔ)進(jìn)行手動(dòng)排序,并將低于一定閾值的短語(yǔ)丟棄。

為了使模型能夠生成更豐富的結(jié)尾,科學(xué)家們通過(guò)ROCStories數(shù)據(jù)集升級(jí)了他們的模型,該數(shù)據(jù)集包含超過(guò)50,000個(gè)五句話(huà)的故事。為了評(píng)估該模型,他們使用DIST算法計(jì)算得出不重復(fù)的一元模型(來(lái)自給定文本或語(yǔ)音樣本的n個(gè)項(xiàng)目的連續(xù)序列)、二元模型(一對(duì)連續(xù)寫(xiě)單位如字母、音節(jié),或文字)和三元模型(三個(gè)連續(xù)寫(xiě)單位)的數(shù)量,并將它們與一元、二元和三元模型的總數(shù)量相除。

在另一項(xiàng)測(cè)試中,他們訓(xùn)練谷歌的BERT完成開(kāi)源故事填空任務(wù),讓BERT在給定兩個(gè)選項(xiàng)的情況下選擇正確的故事結(jié)尾,從而將模型與基線(xiàn)進(jìn)行比較。

那么人工智能的表現(xiàn)如何呢?顯然想拿到普利策獎(jiǎng)是不可能了。雖然它在DIST測(cè)試中名列前茅,且故事完形填空的正確率達(dá)到了72%,但它偶爾也會(huì)給出一些荒謬的結(jié)尾,比如“凱蒂被自己搞得崩潰了,甩了男友”,或者不正確的代詞(“凱蒂”、“他自己”)。

研究人員承認(rèn),需要進(jìn)一步的研究來(lái)確保輸出“語(yǔ)義和象征層面上的上下文”,并且它們?cè)谶壿嬌鲜呛侠砗鸵恢碌。盡管如此,他們聲稱(chēng)他們已經(jīng)“定量地”和“定性地”表明他們的模型能夠超越基線(xiàn),實(shí)現(xiàn)“有意義的”改進(jìn)。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問(wèn)題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)