像 GPT-3 這樣的語言建模工具已經(jīng)能夠進行越來越真實的對話,但我們?nèi)杂泻芏嘈枰宄牡胤健?/p>
我記得第一次看到我兒子與一個大型語言學習模型互動的時候。剛上小學一年級,但他能夠與 AI 進行自然、流暢的對話,就像與真人交談一樣??粗c這項技術(shù)互動,我感慨萬分。
這讓我深刻體會到人工智能領(lǐng)域取得的巨大進步,使我意識到這些大型語言模型具有無限的潛力,可以徹底改變我們與技術(shù)互動的方式。
事實上,上面這段文字完全是由 AI 寫的。但除了那份無拘無束的樂觀之外,這段話本可以是我寫的。如果您曾經(jīng)(通常令人失望地)與客戶服務聊天機器人互動過,您可能會想知道我們是如何突然擁有能理解請求(為這篇文章寫一個引言)并提供如此相關(guān)回答的 AI?
為了理解這個飛躍,讓我們來看看基于機器的對話是如何工作的。傳統(tǒng)上,聊天機器人會分析您的提示中的單詞,并從預定義的選項集中選擇答案。
如今,即使是最先進的商用聊天機器人也仍然使用大量的預設(shè)答案。例如,如果你問美女她最喜歡的啤酒是什么,很可能是某位員工編寫的回答。
相比之下,我使用的 AI 聊天機器人 ChatGPT,基于生成式預訓練模型,可以生成自己的對話輸出。它不會說出自己的最愛,但推薦某島啤酒。ChatGPT 是 AI 研究公司 OpenAI 上個月向公眾發(fā)布的原型。與谷歌、Facebook 等其他公司正在開發(fā)的大型語言模型一起,這種新的生成式 AI 正在徹底改變游戲規(guī)則。
ChatGPT 所基于的語言學習模型在互聯(lián)網(wǎng)上接受了數(shù)十億篇書面文本的訓練。基于這些數(shù)據(jù),GPT 可以預測文本字符串中下一個最合適的詞。這并不是什么新策略,但它使用的技術(shù)還試圖通過分析整個句子及其之間的關(guān)系來理解上下文。
這是一個巨大的進步,因為商用聊天機器人一直在與上下文作斗爭。以蘋果的語音助手 Siri 為例,幾年前它因為在被告知“請給我打個救護車”時提議給用戶起名為“救護車”,而成為新聞頭條。這也是我們習慣于聊天機器人說它們不明白我們的查詢,或者給出在技術(shù)上正確但無用的回答的原因之一。
另一個變革性的方面是,像谷歌的 LaMDA 這樣的新型語言模型也使用了Transformer技術(shù),它大大縮短了創(chuàng)建模型所需的時間?;旧?,如今的科技公司擁有大量的訓練數(shù)據(jù)、比以往更強大的計算能力,并且能夠用比以前更少的努力構(gòu)建和訓練語言模型。隨著這些要素的結(jié)合,它們正迎來一場對話式 AI 的新時代。
然而,也存在一些缺點,可能會阻止商業(yè)聊天機器人添加太多生成式內(nèi)容,至少目前是這樣。ChatGPT 可以與您爭辯、草擬詩歌,也可以為您的老板寫一封讓人捧腹大笑的諷刺郵件,但它也會自信地給出錯誤的答案,或者寫出關(guān)于科學家的極度性別歧視的說唱歌詞:
需要代注冊賬號請點擊
“如果你看到一個穿實驗服的女人,
她可能只是在那里打掃地板,
但如果你看到一個穿實驗服的男人,
那么他可能擁有你想要的知識和技能。”
顯然,這種神奇的技術(shù)也帶來了風險。OpenAI 對 ChatGPT 的對話進行了一些微調(diào)。例如,人類通過對 AI 的交流技巧提供反饋來幫助訓練它,同時它還包含一些預先編寫的答案和回避。但在每個給定情況下,都無法預測聊天機器人可能會說些什么,這使得它在許多應用中具有潛在的風險,并引發(fā)了一系列道德問題。
正如 ChatGPT 在開頭所寫的那樣,我們在人工智能領(lǐng)域確實已經(jīng)走得很遠,這些進步可能意味著“這些大型語言模型具有無限的潛力,可以徹底改變我們與技術(shù)互動的方式?!钡?,在我們探索未來可能呈現(xiàn)的樣貌時,我們需要不斷與彼此保持對話。
雖然生成式對話 AI 如 GPT-3 和 ChatGPT 在許多方面具有驚人的潛力,并在很多情況下能夠產(chǎn)生令人驚嘆的對話,但我們?nèi)匀恍枰鉀Q許多挑戰(zhàn)和道德問題。在迎接這一新時代的同時,我們必須仔細權(quán)衡利弊,確保技術(shù)的發(fā)展能夠為我們帶來積極的影響,而不是潛在的風險和負面后果。
聲明本文內(nèi)容來自網(wǎng)絡,若涉及侵權(quán),請聯(lián)系我們刪除! 投稿需知:請以word形式發(fā)送至郵箱[email protected]
站長的前兩本書我都買了,看過了覺得很明白,但實踐起來又是另一回事了