像ChatGPT所支持的大型語言模型在起草法律摘要、分析客戶評論的情緒或將文檔翻譯成不同語言等任務上表現(xiàn)出色。
這些機器學習模型通常僅使用自然語言處理信息和回答查詢,這使得它們難以執(zhí)行需要數(shù)字或符號推理的任務。
例如,大型語言模型可能能夠記住并背誦美國歷任總統(tǒng)及其生日的列表,但如果問“1950年后當選的哪些美國總統(tǒng)出生在星期三?”,該模型可能會失敗(答案是吉米·卡特。)
麻省理工學院等機構的研究人員提出了一項新技術,使大型語言模型能夠通過生成程序來解決自然語言、數(shù)學和數(shù)據(jù)分析以及符號推理任務。
他們的方法稱為自然語言嵌入式程序(NLEP),涉及提示語言模型創(chuàng)建和執(zhí)行Python程序來解決用戶的查詢,然后將解決方案輸出為自然語言。
他們發(fā)現(xiàn),NLEP使大型語言模型能夠在各種推理任務上實現(xiàn)更高的準確率。這種方法也是可推廣的,這意味著一個NLEP提示可以重復用于多個任務。
NLEP還提高了透明度,因為用戶可以檢查程序以準確了解模型如何推理查詢,如果模型給出了錯誤的答案,則可以修復程序。
“我們希望人工智能能夠以透明和值得信賴的方式進行復雜的推理。雖然還有很長的路要走,但我們已經(jīng)證明,在大型語言模型中結合編程和自然語言的能力,是邁向未來人們能夠完全理解和信任人工智能模型內部發(fā)生的事情的一個非常好的潛在第一步,”麻省理工學院博士后、NLEP論文的共同主要作者HongyinLuo博士(2022年)表示。
與羅一起參與撰寫這篇論文的還有香港中文大學研究生張?zhí)烊A、北京大學本科生葛佳欣、麻省理工學院電子工程與計算機科學系助理教授、計算機科學與人工智能實驗室(CSAIL)成員YoonKim、CSAIL高級研究員兼口語系統(tǒng)小組負責人JamesGlass等。這項研究將在計算語言學協(xié)會北美分會的年度會議上發(fā)表。
使用程序解決問題
許多流行的大型語言模型的工作原理是,根據(jù)一些自然語言輸入預測下一個單詞或標記。雖然GPT-4等模型可用于編寫程序,但它們將這些程序嵌入自然語言中,這可能會導致程序推理或結果出現(xiàn)錯誤。
麻省理工學院的研究人員在NLEP中采用了相反的方法。他們讓模型完全用Python代碼生成分步程序,然后在程序中嵌入必要的自然語言。
NLEP是一個包含四個步驟的問題解決模板。首先,模型調用解決任務所需的必要包或函數(shù)。第二步涉及導入任務所需知識的自然語言表示(例如美國總統(tǒng)生日列表)。對于第三步,模型實現(xiàn)一個計算答案的函數(shù)。最后一步,模型將結果輸出為一行自然語言,并根據(jù)需要自動進行數(shù)據(jù)可視化。
“它就像一個數(shù)字計算器,只要程序正確,它就總能給出正確的計算結果,”羅說。
用戶可以輕松調查程序并直接修復代碼中的任何錯誤,而不需要重新運行整個模型來排除故障。
這種方法也比其他一些方法效率更高。如果用戶有許多類似的問題,他們可以生成一個核心程序,然后替換某些變量,而不需要重復運行模型。
為了促使模型生成NLEP,研究人員給了它一個編寫Python程序的總體指令,提供了兩個NLEP示例(一個是數(shù)學,一個是自然語言)和一個測試問題。
“通常,當人們進行這種小樣本提示時,他們仍然需要為每項任務設計提示。我們發(fā)現(xiàn),我們可以為許多任務設置一個提示,因為它不是教法學碩士解決一個問題的提示,而是教法學碩士通過編寫程序解決許多問題的提示,”羅說。
麻省理工學院-IBM沃森人工智能實驗室首席科學家LeonidKarlinsky表示:“使用語言模型對代碼進行推理,為工具使用、輸出驗證、對模型功能和思維方式的更有條理的理解等提供了許多機會。”
“這里沒有魔法”
在提示GPT-4解決一系列符號推理任務(例如跟蹤打亂的物體或玩24點游戲)以及指令跟蹤和文本分類任務時,NLEP的準確率超過90%。研究人員發(fā)現(xiàn),NLEP的準確率甚至比特定任務的提示方法高出30%。該方法還顯示出比開源LLM更好的性能。
除了提高大型語言模型的準確性之外,NLEP還可以改善數(shù)據(jù)隱私。由于NLEP程序在本地運行,因此敏感的用戶數(shù)據(jù)無需發(fā)送到OpenAI或Google等公司進行模型處理。
此外,NLEP可以使小型語言模型表現(xiàn)得更好,而無需為某項任務重新訓練模型,這可能是一個昂貴的過程。
“這里沒有什么魔法。我們沒有更昂貴或更花哨的語言模型。我們所做的就是使用程序生成而不是自然語言生成,我們可以讓它的表現(xiàn)更好,”羅說。
然而,NLEP依賴于模型的程序生成能力,因此該技術對于在有限數(shù)據(jù)集上訓練的較小模型效果不佳。未來,研究人員計劃研究使較小語言模型生成更有效的NLEP的方法。此外,他們還希望研究提示變化對NLEP的影響,以增強模型推理過程的穩(wěn)健性。
標簽:
免責聲明:本文由用戶上傳,與本網(wǎng)站立場無關。財經(jīng)信息僅供讀者參考,并不構成投資建議。投資者據(jù)此操作,風險自擔。 如有侵權請聯(lián)系刪除!