首頁 - 關于我們 - 新聞活動 - ChatGPT:是一項技術突破嗎?

ChatGPT:是一項技術突破嗎?

2023-2-24新聞

ChatGPT是聊天機器人(rén)的(de)最新創新。ChatGPT由OpenAI設計,使用(yòng)最先進的(de)語言處理(lǐ)模型之一來(lái)模拟與用(yòng)戶的(de)自然對(duì)話(huà)。



ChatGPT能夠适應廣泛的(de)對(duì)話(huà)主題,并通(tōng)過使用(yòng)GPT-3(生成式預訓練Transformer3)模型提供流暢、自然的(de)響應。ChatGPT利用(yòng)從大(dà)量文本語料庫中學到的(de)知識,可(kě)以自主生成文本并幫助用(yòng)戶找到問題的(de)答(dá)案。


除了(le)模拟自然對(duì)話(huà)的(de)能力外,ChatGPT還(hái)能夠執行其他(tā)語言處理(lǐ)任務,例如翻譯和(hé)自然語言理(lǐ)解。這(zhè)種多(duō)功能性使其成爲尋求改善客戶服務或自動化(huà)某些語言處理(lǐ)任務的(de)企業和(hé)組織的(de)寶貴工具。


ChatGPT仍在開發中,但它已經在AI行業引起了(le)極大(dà)的(de)興趣和(hé)興奮。

以上内容是由GPTChat在要求其以新聞形式撰寫介紹性文章(zhāng)後完整編寫的(de)!



ChatGPT是一款專注于對(duì)話(huà)的(de)人(rén)工智能聊天機器人(rén),通(tōng)過使用(yòng)強化(huà)學習(xí)和(hé)監督學習(xí)對(duì)OpenAI的(de)GPT-3進行微調而開發。它針對(duì)對(duì)話(huà)式AI進行了(le)優化(huà),可(kě)以生成多(duō)種多(duō)樣且聽(tīng)起來(lái)自然的(de)文本響應,讓人(rén)們可(kě)以更好地理(lǐ)解語言并更好地進行交流。ChatGPT能夠與人(rén)交談、構建響應并提供一定數量的(de)知識,還(hái)可(kě)以編寫和(hé)調試代碼、作曲、玩遊戲、回答(dá)評估問卷、寫詩和(hé)歌(gē)曲等等。


盡管ChatGPT的(de)演示已經引起了(le)轟動,但在生産規模上部署ChatGPT模型将是一個(gè)巨大(dà)的(de)運營挑戰,需要複雜(zá)的(de)基礎設施定制。


GPTChat符合近年來(lái)開發的(de)大(dà)型語言模型,能夠處理(lǐ)非常大(dà)量的(de)數據并解決日益多(duō)樣化(huà)和(hé)複雜(zá)的(de)任務。最近,我們看到了(le)許多(duō)語言模型的(de)出現,或多(duō)或少是專門的(de),例如Galactica或LaMDA。對(duì)于研究人(rén)員(yuán)來(lái)說,ChatGPT不是突破,而是對(duì)現有模型的(de)改進并通(tōng)過可(kě)訪問的(de)對(duì)話(huà)界面爲公衆普及人(rén)工智能做(zuò)出貢獻。


爲了(le)達到這(zhè)種效率水(shuǐ)平,OpenAI工程師使用(yòng)了(le)在大(dà)量文檔上訓練的(de)GPT3.5算(suàn)法和(hé)instructGPT模型,這(zhè)些文檔包括維基百科、網絡文章(zhāng)、論壇等,該模型通(tōng)過結合人(rén)類判斷來(lái)改進語言模型的(de)訓練。工程師們還(hái)采用(yòng)并調整了(le)instructGPT數據,将其用(yòng)于對(duì)話(huà)任務,并在答(dá)案中獲得(de)更好的(de)相關性。



ChatGPT的(de)訓練包括三個(gè)階段。第一階段,要求兩個(gè)人(rén)交談以獲得(de)數據集,其中一個(gè)人(rén)模拟系統,另一個(gè)人(rén)模拟用(yòng)戶,我們學習(xí)專門用(yòng)于對(duì)話(huà)的(de)第一語言模型,給機器舉個(gè)例子,看看它的(de)反應是什(shén)麽,然後根據它的(de)錯誤程度,修改參數直到它減少錯誤。第二階段,一旦模型從這(zhè)些數據中學習(xí),就要求它爲同一個(gè)對(duì)話(huà)生成多(duō)個(gè)輸出。然後,注釋者将按照(zhào)相關性順序對(duì)模型的(de)響應進行排序。這(zhè)使我們能夠擁有第二個(gè)受監督的(de)數據集并學習(xí)獎勵模型。第三階段,通(tōng)過強化(huà)學習(xí)增強在第一步中學習(xí)的(de)模型來(lái)改進它,利用(yòng)第二步學習(xí)到的(de)獎勵模型重新調整模型的(de)參數。經過訓練後,該模型可(kě)用(yòng)于自主生成文本。



ChatGPT快(kuài)速準确,結果看起來(lái)是神奇的(de),同時(shí)也(yě)會産生一系列道德問題,包括信息的(de)可(kě)信度和(hé)真實性。ChatGPT寫出看似一緻的(de)合理(lǐ)答(dá)案,但實際上可(kě)能不準确或具有誤導性。基于強化(huà)學習(xí)的(de)訓練不會強制模型生成真實信息,它對(duì)世界的(de)了(le)解僅限于訓練期間提供的(de)數據。計算(suàn)機科學家說,ChatGPT還(hái)存在其他(tā)偏見,例如語言模型過度生成的(de)趨勢。此外,該模型是不透明(míng)的(de)。我們不知道訓練它的(de)數據,也(yě)不知道注釋是如何完成的(de),也(yě)不知道給人(rén)類注釋者的(de)指令。另一個(gè)問題是ChatGPT是否應該回答(dá)所有問題。OpenAI已經改進了(le)它的(de)模型,因此它不再提供按需回答(dá)的(de)方法。


剽竊和(hé)版權問題也(yě)是争論的(de)核心。誰擁有生成的(de)文本?提出問題的(de)用(yòng)戶?爲了(le)打擊潛在的(de)剽竊行爲,OpenAI目前正在開發一個(gè)系統來(lái)自動檢測聊天生成的(de)文本。當維基百科問世時(shí),我們也(yě)有同樣的(de)擔憂。但最終,維基百科是一種永遠(yuǎn)不會取代學校的(de)媒介。同樣,ChatGPT将使我們能夠對(duì)許多(duō)将不得(de)不返工的(de)事情有一個(gè)概覽。這(zhè)就提出了(le)Chat GPT的(de)位置問題,與ChatGPT不同,搜索引擎允許用(yòng)戶訪問資源、理(lǐ)解他(tā)找到的(de)信息并積極參與知識構建過程,而會話(huà)系統不一定通(tōng)過提供直接答(dá)案來(lái)實現這(zhè)種多(duō)樣性。


面對(duì)這(zhè)些挑戰,多(duō)年來(lái)一直緻力于研究這(zhè)些語言模型的(de)科學家的(de)作用(yòng)是巨大(dà)的(de)。每個(gè)人(rén)都對(duì)他(tā)們如何生産模型、使其可(kě)用(yòng)和(hé)使用(yòng)它們負責。一旦它們存在,就不能忽視它們。目前,科學界正在開發其他(tā)具有世界知識的(de)模型,這(zhè)些模型不僅限于文本數據,還(hái)包括所有視覺、音(yīn)頻(pín)等數據。科學界也(yě)可(kě)以在提高(gāo)人(rén)們對(duì)這(zhè)些模型的(de)設計和(hé)使用(yòng)及其局限性的(de)認識和(hé)教育方面發揮作用(yòng)。即使這(zhè)些工具不是爲了(le)取代用(yòng)戶,而是爲了(le)幫助人(rén)們變得(de)更有效率,也(yě)必須對(duì)他(tā)們所帶來(lái)的(de)偏見養成批判的(de)心态。



長(cháng) 按 關 注

     新浪微博     -       視頻(pín)号       -         官網



分(fēn)享、在看與點贊

隻要你點我都喜歡