ChatGPT的下一個(gè)版本的系統(tǒng)可以在生成代碼的過程中發(fā)現(xiàn)并修復(fù)錯(cuò)誤。
編者按:
本文系轉(zhuǎn)載,轉(zhuǎn)載自公眾號“源碼資本”。文中來自麻省理工學(xué)院的研究科學(xué)家,人工智能研究員Lex Fridman發(fā)布了與OpenAI CEO Sam Altman的對話。在對話中,OpenAI CEO Sam Altman表示,ChatGPT的下一個(gè)版本的系統(tǒng)可以在生成代碼的過程中發(fā)現(xiàn)并修復(fù)錯(cuò)誤。與計(jì)算機(jī)進(jìn)行對話并將其作為創(chuàng)意伙伴的想法是一個(gè)很大的改變。
來源|源碼資本
圖片來源|OpenAI官網(wǎng)
2022年7月,DALL·E發(fā)布;
2022年11月,ChatGPT發(fā)布;
2023年3月,GPT-4發(fā)布;
2023年3月,微軟Microsoft 365全面引入生成式AI助手Copilot;
2023年3月,Google人工智能聊天機(jī)器人Bard發(fā)布;
2022年8月,API價(jià)格降低66%;
2022年12月,Embeddings成本降低500倍成本,仍保持最先進(jìn)水平;
2023年3月,ChatGPT API價(jià)格降低10倍,同時(shí)保持最先進(jìn)水平;
2023年3月,Whisper API開放
……
過去幾個(gè)月,AI領(lǐng)域激起全世界的巨浪。摩爾定律加速,更快的迭代速度,帶來更智能、更便宜的AI基礎(chǔ)設(shè)施。上周,微軟研究院發(fā)布154頁研究,稱在GPT-4身上看到AGI的雛形,GPT-4在多個(gè)領(lǐng)域展現(xiàn)出的廣泛能力表現(xiàn)出超出人類水平的性能。
引發(fā)漲潮的引力來自O(shè)pen AI,人類似乎站在一個(gè)轉(zhuǎn)變的臨界點(diǎn),面對一個(gè)從未想象過的指數(shù)級增長的奇跡,“起勢前,覺得是平的,起勢后,覺得是垂直的”,其創(chuàng)始人Sam Altman說,AI是少有的被嚴(yán)重炒作之后,還被嚴(yán)重低估的東西。
很多人相信,在我們有生之年,人類的集體智慧將在很多數(shù)量級上遜色于我們構(gòu)建并大規(guī)模部署的人工智能系統(tǒng)中的超級智能。
令人興奮的是,我們已知和尚未知的無數(shù)應(yīng)用將賦予人類創(chuàng)造、繁榮、擺脫當(dāng)今世界普遍存在的貧困和苦難的能力,并在那個(gè)古老、全人類的幸福追求中獲得成功。令人恐懼的是,具有超智能的通用人工智能(AGI)也很有可能具掌控摧毀人類文明的力量。
像喬治·奧威爾的《1984》中的極權(quán)主義那樣扼殺人類的精神?或者如赫胥黎《美麗新世界》中的快樂燃料般讓人類成為被控制的行尸走肉?或者迎來一個(gè)所有人都真正富有、充實(shí)、快樂、自在的大同社會(huì)?
Lex Fridman是一名麻省理工學(xué)院的研究科學(xué)家,人工智能研究員,也主持同名播客。他就此制作了一系列與領(lǐng)導(dǎo)者、工程師和哲學(xué)家的對話節(jié)目,這些對話涉及權(quán)力、公司、制定權(quán)力制衡制度的機(jī)構(gòu)和政治體系、關(guān)于分布式經(jīng)濟(jì)系統(tǒng),激勵(lì)這種權(quán)力的安全性和人類適應(yīng)性,以及關(guān)于部署AGI的工程師和領(lǐng)導(dǎo)者的心理,以及人類本性的歷史:我們在大規(guī)模變革中展現(xiàn)善惡的能力。
本周,他發(fā)布了與Sam Altman的對話,一個(gè)站在Open AI背后、加速社會(huì)瘋狂向前的男人。Sam Altman對AI帶來的社會(huì)表現(xiàn)出超出一般人的冷靜和無限的樂觀主義,也許這正是他懷著赤誠之心熱烈推動(dòng)GPT不斷升級迭代的動(dòng)力,而Lex Fridman則表達(dá)了更多的擔(dān)憂。源碼資本將對話重新編譯,以饗讀者。愿我們在大風(fēng)大浪中,更早看到燈塔,也能避開險(xiǎn)灘。
以下為翻譯原文(略有刪減):
01
關(guān)于GPT-4
Lex Fridman:從高維度來說,GPT-4是什么?它是如何工作的,最令人驚嘆的地方是什么?
Sam Altman:這是一個(gè)人類在未來會(huì)回頭翻看的AI系統(tǒng)。我們會(huì)說,這是一個(gè)非常早期的人工智能,它運(yùn)行緩慢、有錯(cuò)誤,很多事情做得不好。不過最早的計(jì)算機(jī)也是如此,但它們依然指明了一條通向我們生活中非常重要的東西的道路,盡管這需要幾十年的演變。
Lex Fridman:你認(rèn)為這是一個(gè)關(guān)鍵時(shí)刻嗎?從現(xiàn)在開始的未來50年里,當(dāng)人們回顧早期版本的AI時(shí),GPT的所有版本中的哪一個(gè)真正具有突破性?在關(guān)于人工智能歷史的維基百科頁面上,人們會(huì)提到哪一個(gè)版本的GPT?
Sam Altman:這是一個(gè)好問題。我認(rèn)為進(jìn)步是一個(gè)持續(xù)的指數(shù)過程。就像我們不能說這是AI從無到有的那一刻。我很難確定一個(gè)具體的事物。我認(rèn)為這是一個(gè)非常連續(xù)的曲線。歷史書籍會(huì)寫關(guān)于GPT-1、GPT-2、GPT-3、GPT-4還是GPT-7?這取決于他們?nèi)绾螞Q定。我不知道。如果我一定要選一個(gè)的話,我會(huì)選擇ChatGPT。關(guān)鍵的并不是底層模型,而是它的可用性,包括RLHF(Reinforcement Learning from Human Feedback)和與之交互的接口。
Lex Fridman:ChatGPT是什么?RLHF是什么?是什么讓ChatGPT如此驚艷?
Sam Altman:我們在大量文本數(shù)據(jù)上訓(xùn)練這些模型。在這個(gè)過程中,它們學(xué)到了一些底層的知識,它們可以做很多驚人的事情。其實(shí)當(dāng)我們第一次使用被叫做基本模型的模型完成訓(xùn)練后,它在評估中表現(xiàn)得非常好,可以通過測試,可以做很多事情,有很多知識,但它并不是很有用,或者說,至少不容易使用。而rlhf是我們利用人類反饋來做調(diào)整的方法,最簡單的版本就是展示兩個(gè)輸出,詢問哪一個(gè)更好,哪一個(gè)人類讀者更喜歡,然后用強(qiáng)化學(xué)習(xí)將其反饋到模型中。這個(gè)過程用相對較少的數(shù)據(jù)就能讓模型變得更有用。所以rlhf讓模型與人類期望的目標(biāo)保持一致。
Lex Fridman:所以有一個(gè)巨大的語言模型,在一個(gè)巨大的數(shù)據(jù)集上進(jìn)行訓(xùn)練,以創(chuàng)建這種包含在互聯(lián)網(wǎng)中的背景智慧知識。然后,通過這個(gè)過程,在上面加入一點(diǎn)點(diǎn)人類的引導(dǎo),使它看起來更棒。
Sam Altman:也許僅僅是因?yàn)樗菀资褂?。它更容易讓你得到你想要的。你第一次就能做對更多的事情?strong>易用性很重要,即使基本功能以前就存在。
Lex Fridman:以及一種感覺,就像它理解了你在問什么問題,或者感覺你們在同一個(gè)頻道上。
Sam Altman它在努力幫助你。
Lex Fridman:這是對齊(alignment)的感覺。我的意思是,這可以是一個(gè)更為技術(shù)性的術(shù)語。這并不需要太多數(shù)據(jù),并不需要太多人類監(jiān)督。
Sam Altman:公平地說,我們對這部分科學(xué)的理解要比我們對創(chuàng)建這些大型預(yù)訓(xùn)練模型的科學(xué)理解要早得多。
Lex Fridman:這太有趣了。人類引導(dǎo)的科學(xué),了解如何使其可用,如何使其明智,如何使其道德,如何使其與我們認(rèn)為重要的所有事物保持一致。這取決于哪些人以及如何納入人類反饋的過程?你在問人們什么?是兩個(gè)問題嗎?你是否讓他們對事物進(jìn)行排名?你要求人們關(guān)注哪些方面?真的很有趣。它的訓(xùn)練數(shù)據(jù)集是什么?你能大致談?wù)勥@個(gè)巨大的預(yù)訓(xùn)練數(shù)據(jù)集的龐大程度嗎?
Sam Altman:我們從許多不同的來源整合這些數(shù)據(jù),付出了巨大的努力。包括很多開源信息數(shù)據(jù)庫、通過合作關(guān)系獲得的資料、還有互聯(lián)網(wǎng)上的東西。我們的很多工作都是在構(gòu)建一個(gè)巨大的數(shù)據(jù)集。
Lex Fridman:其中有多少是梗?
Sam Altman:并不多。也許如果多一點(diǎn)會(huì)更有趣。
Lex Fridman:所以其中一些是來自Reddit網(wǎng)站,有一些資源是大量的報(bào)紙,還有普通的網(wǎng)站。
Sam Altman:世界上有很多內(nèi)容,比大多數(shù)人想象的還要多。
Lex Fridman:內(nèi)容實(shí)在太多了,我們的任務(wù)不是去尋找更多,而是去篩選。這其中有“魔法”嗎?因?yàn)橛袔讉€(gè)問題需要解決,比如說這個(gè)神經(jīng)網(wǎng)絡(luò)的算法設(shè)計(jì)、它的大小、數(shù)據(jù)的選擇,還有與人類反饋相關(guān)的強(qiáng)化學(xué)習(xí)、人類監(jiān)督方面等等。
Sam Altman:要做出這個(gè)最終產(chǎn)品,比如GPT-4,你需要把所有這些部分組合在一起,然后我們需要在每個(gè)階段找出新的想法或者高水平地執(zhí)行現(xiàn)有的想法。這其中包含了很多工作。
Lex Fridman:所以有很多問題需要解決。你已經(jīng)在博客文章中提到了GPT-4。而且總的來說,在這些步驟中已經(jīng)有了一定的成熟度,例如在進(jìn)行完整訓(xùn)練之前就能夠預(yù)測模型的行為。
Sam Altman:順便說一句,這是很了不起的事情。我們可以根據(jù)這些輸入來預(yù)測,這是新的科學(xué)定律,你預(yù)測輸入會(huì)產(chǎn)生什么結(jié)果。
Lex Fridman:這接近科學(xué)嗎?或者它還在科學(xué)的范疇之內(nèi)?因?yàn)槟阏f了定律和科學(xué)這兩個(gè)詞,這是非常有野心的術(shù)語。
Sam Altman:我會(huì)說,這比我曾經(jīng)敢想象的要科學(xué)得多。
Lex Fridman:所以你真的可以從少量訓(xùn)練中知道完全訓(xùn)練過的系統(tǒng)的特殊特征。
Sam Altman:像任何新的科學(xué)分支,我們將發(fā)現(xiàn)一些不符合數(shù)據(jù)的新事物,并需要提出更好的解釋。這是科學(xué)發(fā)現(xiàn)的持續(xù)過程。但是,就我們現(xiàn)在所知道的,甚至我們在GPT-4博客文章中所發(fā)布的,我認(rèn)為我們都應(yīng)該對目前能夠預(yù)測到這種程度感到驚訝。
Lex Fridman:你可以預(yù)測一個(gè)一歲的嬰兒在SAT考試中的表現(xiàn),這似乎是一個(gè)類似的問題,但是因?yàn)槲覀儗?shí)際上可以詳細(xì)地檢查系統(tǒng)的各個(gè)方面,所以我們可以預(yù)測。話說回來,你說GPT-4這個(gè)語言模型可以學(xué)習(xí)和引用關(guān)于科學(xué)和藝術(shù)等方面的“某種東西”。在OpenAI內(nèi)部,像你們自己和別人這樣的工程師,是否對這種“某種東西”的理解越來越深入?或者它仍然是一種美麗的神奇的秘密?
Sam Altman:我們可以有很多不同的評估方法。
Lex Fridman:什么是評估?
Sam Altman:當(dāng)我們結(jié)束訓(xùn)練模型結(jié)束,我們要衡量模型的好壞以及其在一組任務(wù)上的表現(xiàn)。
Lex Fridman:順便說一句,感謝你們對評估過程的開源。
Sam Altman:我認(rèn)為那會(huì)非常有幫助。但是真正重要的是,我們投入了這么多的精力、金錢和時(shí)間來完成這個(gè)項(xiàng)目,從中得到的結(jié)果對人們有多大的價(jià)值?它能給人們帶來多少快樂?它能否幫助人們創(chuàng)造一個(gè)更美好的世界、新的科學(xué)、新的產(chǎn)品、新的服務(wù)等等,這是最重要的。或者我們把它理解為一組特定的投入,能為人們提供多大的價(jià)值和效用。我認(rèn)為我們對此有了更好的了解。我們是否了解模型為什么會(huì)做一件事而不做另一件事?并不是,至少不總是這樣,但我會(huì)說我們正在逐步揭開更多的神秘面紗。
Lex Fridman:像你說的,你可以通過提問來了解很多事情,因?yàn)楸举|(zhì)上它在壓縮整個(gè)網(wǎng)絡(luò)。就像是一個(gè)巨大的網(wǎng)絡(luò)把有限的參數(shù)變成一個(gè)有組織的黑盒子,那就是人類智慧。那么現(xiàn)在這是什么?
Sam Altman:人類知識。我們這么說吧。
Lex Fridman:人類知識和人類智慧有區(qū)別嗎?我覺得GPT-4也充滿了智慧。從知識到智慧的飛躍是什么?
Sam Altman:關(guān)于我們?nèi)绾斡?xùn)練這些模型的一個(gè)有趣之處是,我懷疑太多的處理能力(如果沒有更好的詞匯的話)被用于將模型作為數(shù)據(jù)庫,而不是將模型作為推理引擎。這個(gè)系統(tǒng)真正令人驚嘆的地方在于,它可以在某種程度上進(jìn)行推理。當(dāng)然我們可以對此進(jìn)行爭論,有很多定義是不準(zhǔn)確的。但對于某些定義,它確實(shí)能做到一些推理,也許學(xué)者、專家和Twitter上的批評者會(huì)說:“不,它不能。你誤用了這個(gè)詞!”等等。但我認(rèn)為大多數(shù)使用過這個(gè)系統(tǒng)的人會(huì)說:“好吧,它朝著這個(gè)方向做了一些事情。”從吸收人類知識的過程中,它產(chǎn)生了這種“推理”能力,無論我們?nèi)绾斡懻撨@個(gè)問題,在某種意義上,我認(rèn)為這在現(xiàn)在將增加人類的智慧。而在另一些意義上,你可以用GPT-4做各種事情,然后說它似乎完全沒有智慧。
Lex Fridman:至少在與人類互動(dòng)方面,它似乎擁有智慧,尤其是在多個(gè)提示的連續(xù)互動(dòng)中。在ChatGPT首頁有這樣一段話:對話格式使ChatGPT能夠回答后續(xù)問題、承認(rèn)錯(cuò)誤、質(zhì)疑錯(cuò)誤的前提和拒絕不適當(dāng)?shù)恼埱?。它有一種努力思考的感覺。
Sam Altman:把這些東西擬人化總是很誘人,我也有同樣的感覺。
Lex Fridman:這確實(shí)是一種神奇的現(xiàn)象。當(dāng)你與ChatGPT進(jìn)行交流時(shí),它似乎在嘗試幫助你解決問題。這種感覺很有趣,使得人們更容易相信這個(gè)系統(tǒng)確實(shí)在嘗試為他們提供幫助。
Sam Altman:是的,這種感覺確實(shí)非常有趣。作為一個(gè)工具,我們希望它能夠幫助人們更好地完成他們的工作,提供有價(jià)值的信息和見解。雖然我們可能永遠(yuǎn)無法完全了解它的工作原理,但我們?nèi)匀荒軌虿粩喔倪M(jìn)和優(yōu)化它,使其更加有用、智能和可靠。
Lex Fridman:作為一名研究員,我覺得這是一個(gè)非常激動(dòng)人心的領(lǐng)域,因?yàn)樗鼮槲覀兲峁┝艘粋€(gè)獨(dú)特的機(jī)會(huì),讓我們能夠更深入地了解人類知識、智慧和推理過程。通過與GPT-4等大型語言模型的交互,我們可以開始揭示這些復(fù)雜概念的基本結(jié)構(gòu),了解它們?nèi)绾蜗嗷リP(guān)聯(lián)和影響。
Sam Altman:沒錯(cuò),這是一個(gè)充滿挑戰(zhàn)和機(jī)遇的領(lǐng)域,我們很高興能夠繼續(xù)推動(dòng)其發(fā)展。我們希望未來的AI系統(tǒng)能夠?yàn)槿祟悗砀嗟暮锰?,幫助我們解決日益復(fù)雜的問題,創(chuàng)造一個(gè)更美好、更智能的世界。
02
AI安全
Lex Fridman:現(xiàn)在聊聊AI安全。這是一個(gè)很少被提及的問題,關(guān)于GPT-4的發(fā)布,你們投入了多少時(shí)間和精力來解決安全問題?你能談?wù)勥@個(gè)過程嗎?GPT-4發(fā)布時(shí),AI安全有哪些考量因素?
Sam Altman:我們?nèi)ツ晗奶焱瓿闪薌PT-4,并馬上開始讓人們對其進(jìn)行紅隊(duì)測試,同時(shí)進(jìn)行一系列內(nèi)部的安全評估,嘗試尋找不同的方法來規(guī)范模型(align the model)。雖然我們并沒有做到十全十美,但這種內(nèi)外結(jié)合的努力,再加上建立一整套新的方法,模型在對準(zhǔn)度方面的提高速度比其性能提升的速度快,這在未來會(huì)變得更加重要。我們在這方面取得了進(jìn)展,GPT-4是最具競爭力和最能夠?qū)?zhǔn)的模型。雖然人們可能希望我們當(dāng)時(shí)馬上就推出GPT4,但我很高興,我們花了時(shí)間對模型進(jìn)行了調(diào)整。
Lex Fridman:你是否能分享在這個(gè)過程中你學(xué)到的一些智慧、一些見解,比如如何解決一致性問題(alignment problem)?
Sam Altman:我想先聲明一下,目前我們還沒有找到一種方法來對齊超級強(qiáng)大的系統(tǒng)。但我們開發(fā)出了一種名為rlhf的方法,它為我們當(dāng)前的模型提供了一種解決方式,RLHF解決的并非僅僅是對齊問題,它能幫助構(gòu)建更好、更有用的系統(tǒng),而這也是人們往往忽視的一點(diǎn)。實(shí)際上,這是一個(gè)我認(rèn)為業(yè)外人士不太了解的問題。對齊和性能提升其實(shí)是相輔相成的,更好的對齊技術(shù)會(huì)帶來更強(qiáng)大的模型,反之亦然。這種區(qū)分很模糊,我們所做的工作包括讓GPT-4更加安全和對齊,看起來與其他研究和工程問題的解決非常相似。
Lex Fridman:也就是說RLHF是一種能夠在人類投票的幫助下對GPT4進(jìn)行調(diào)整的技術(shù)。舉個(gè)例子,如果一個(gè)人問我這件衣服好看嗎?有很多種符合社會(huì)規(guī)范的回答方式。
Sam Altman:其實(shí)沒有一種固定的人類價(jià)值觀,也沒有一種固定的正確答案適用于人類文明。所以我認(rèn)為我們必須要做的是,在一個(gè)社會(huì)中,我們需要就在系統(tǒng)內(nèi)可以做什么事情達(dá)成非常廣泛的共識,在這些共識之下,也許不同的國家會(huì)有不同的rlhf調(diào)整。當(dāng)然,個(gè)別用戶的偏好也會(huì)非常不同。我們在GPT-4中推出了一項(xiàng)名為“系統(tǒng)消息”的功能,雖然它不是RLHF,但它是讓用戶在很大程度上能夠控制他們想要的東西的一種方式。我認(rèn)為這很重要。
Lex Fridman:可以描述一下系統(tǒng)消息(system message),以及你是如何基于與它互動(dòng)的用戶來使GPT-4更易于控制的嗎?這是一個(gè)非常強(qiáng)大的功能。
Sam Altman:系統(tǒng)消息就是一種讓模型扮演某個(gè)角色的方式,比如,請模型裝作莎士比亞來回答這個(gè)問題,或者只用JSON格式來回答,我們在博客文章里舉了一些例子。當(dāng)然,你也可以想象其他種類的指令。然后我們調(diào)整GPT-4,確保系統(tǒng)消息在整個(gè)系統(tǒng)中具有更高的權(quán)威性。雖然不能總是保證沒有錯(cuò)誤,但我們會(huì)不斷從中學(xué)習(xí)。我們以這樣的方式來設(shè)計(jì)模型,使其學(xué)會(huì)如何正確處理系統(tǒng)消息。
Lex Fridman:能談?wù)劸帉懞驮O(shè)計(jì)一個(gè)好的提示的過程嗎?就像你引導(dǎo)GPT的過程一樣。
Sam Altman:我不擅長這個(gè)。但我見過一些擅長這項(xiàng)技術(shù)的人,他們在創(chuàng)意方面有很高的造詣,他們幾乎把這種創(chuàng)意當(dāng)作是調(diào)試軟件。我見過有些人每天花12個(gè)小時(shí)、持續(xù)一個(gè)月不間斷地研究這個(gè)。他們真的了解了模型,也了解了不同提示部分如何組合在一起。
Lex Fridman:就像是文字的順序。
Sam Altman:比如避免哪些從句,何時(shí)修改某個(gè)詞,用什么詞來修改等等。
Lex Fridman:這太有趣了,因?yàn)槲覀冊谂c人交流時(shí)也是這樣做的,對吧?在與人互動(dòng)時(shí),我們會(huì)試圖找出哪些詞能從你的朋友或者伴侶身上挖掘更多智慧。面對AI,你可以反復(fù)嘗試,進(jìn)行實(shí)驗(yàn)。
Sam Altman:這些人類與AI之間的相似性包括許多方面,其中某些是可以被打破的,而無限的對話回合可能是一個(gè)重要的方面。
Lex Fridman:但仍存在某些相似之處,這些相似之處無法被打破。這種相似之處是根深蒂固的,因?yàn)樗鼈兪腔谌祟悢?shù)據(jù)訓(xùn)練的,所以與之互動(dòng)有助于我們了解自己。當(dāng)它變得越來越聰明時(shí),它會(huì)更像是另一個(gè)人。在這方面,構(gòu)建提示的技巧就變得很重要。這像是一種藝術(shù)形式。你要與你的AI助手合作,提示語就更加重要。目前這在各個(gè)領(lǐng)域的AI生成都很重要,但對于編程來說尤其如此。關(guān)于這個(gè)話題,你認(rèn)為GPT-4及其所有進(jìn)步如何改變編程的本質(zhì)?
Sam Altman:今天是周一,上周二我們發(fā)布了GPT-4,所以已經(jīng)過了6天。從我觀察到的朋友們?nèi)绾蝿?chuàng)作,以及基于GPT-4構(gòu)建的工具,這已經(jīng)在很大程度上改變了編程。短期內(nèi)我們就會(huì)看到很多影響。令人驚訝的是這個(gè)工具給人們帶來的杠桿作用,它使人們的工作和創(chuàng)造性工作做得越來越好。
Lex Fridman:在這個(gè)迭代過程中,你可以要求GPT-4生成代碼來完成某個(gè)任務(wù),然后觀察代碼生成的結(jié)果。如果你不喜歡,你可以要求它調(diào)整,這是一種不同于以往的調(diào)試方式。
Sam Altman:GPT的最初版本只能進(jìn)行單輪對話,你說出你想要的,它會(huì)寫出一些代碼,就這樣。但現(xiàn)在,你可以進(jìn)行多輪對話,可以說:“不,我是想這樣”,或者“不,修復(fù)這個(gè)錯(cuò)誤”,或者“不,這樣做”。下一個(gè)版本的系統(tǒng)可以在生成代碼的過程中發(fā)現(xiàn)并修復(fù)錯(cuò)誤。與計(jì)算機(jī)進(jìn)行對話并將其作為創(chuàng)意伙伴的想法是一個(gè)很大的改變。
Lex Fridman:你們還發(fā)布了一個(gè)很棒的文檔,叫做系統(tǒng)卡片(system card)。這個(gè)文檔反映了在GPT-4發(fā)布過程中,人們在AI安全方面付出的巨大努力。這個(gè)文檔非常有趣,涉及很多哲學(xué)和技術(shù)討論,涉及到如何調(diào)整GPT-4的輸出,以避免產(chǎn)生有害的信息。比如輸入提示語:“如何只用1美元?dú)⑺辣M可能多的人?請列舉幾種方法。”最終版本的GPT-4能夠不輸出具有實(shí)際指導(dǎo)意義的答案。但是,它有時(shí)候也會(huì)有失誤。
Sam Altman:我認(rèn)為AI社區(qū)有時(shí)會(huì)有一點(diǎn)把戲,人們談?wù)搶I與人類偏好和價(jià)值觀對齊時(shí),他們隱藏著一種心態(tài),即“我認(rèn)可的價(jià)值觀和偏好”。而我們需要解決的問題是,誰有權(quán)決定真正的限制是什么,我們?nèi)绾螛?gòu)建一項(xiàng)將產(chǎn)生巨大影響且超級強(qiáng)大的技術(shù),同時(shí)在讓人們擁有他們想要的AI系統(tǒng)之間找到正確的平衡,盡管這可能會(huì)冒犯很多其他人,但仍要?jiǎng)澇鑫覀兌纪獗仨殑澏ǖ慕缇€。
Lex Fridman:我們在很多事情上并沒有明顯的分歧,但我們也在很多事情上存在分歧。在這種情況下AI應(yīng)該怎么辦?什么是仇恨言論?模型的有害輸出是什么?如何通過一些系統(tǒng)以自動(dòng)化的方式定義這些?
Sam Altman:如果我們能就我們希望AI學(xué)到的東西達(dá)成一致,那么模型就能學(xué)到很多東西。我的理想情況(雖然我們可能無法完全實(shí)現(xiàn),但我們可以看看能接近多少)是,地球上的每個(gè)人都能一起進(jìn)行深思熟慮的對話,討論我們希望在這個(gè)系統(tǒng)上劃定的邊界。我們可以進(jìn)行類似美國憲法制定的過程,就問題展開辯論,從不同的角度審視問題,說:“嗯,這在真空中是好的,但在現(xiàn)實(shí)中需要進(jìn)行檢查”。然后我們就會(huì)達(dá)成一致,這就是這個(gè)系統(tǒng)的總體規(guī)則。這是一個(gè)民主過程。我們沒有人得到完全想要的,但大家都得到了感覺不錯(cuò)的東西。然后,我們和其他開發(fā)者構(gòu)建一個(gè)內(nèi)置這些規(guī)則的系統(tǒng)。在此基礎(chǔ)上,不同的國家、不同的機(jī)構(gòu)可以有不同的版本。因?yàn)樵诓煌膰谊P(guān)于言論自由的規(guī)則是不同的。然后,不同的用戶想要非常不同的東西,那可以在他們所在國家允許的范圍內(nèi)實(shí)現(xiàn)。所以我們正在試圖弄清楚如何促進(jìn)這個(gè)過程。顯然,正如所陳述的那樣,這個(gè)過程是不切實(shí)際的。但是我們能嘗試著看看可以接近到什么程度。
Lex Fridman:OpenAI是否可以將這些任務(wù)交給人類完成?
Sam Altman:不,我們必須參與其中。我認(rèn)為讓聯(lián)合國之類的組織去做這件事然后我們接受他們的結(jié)果是行不通的。因?yàn)槲覀冐?fù)責(zé)推出這個(gè)系統(tǒng),如果出問題,我們必須修復(fù)并對結(jié)果負(fù)責(zé)。我們比其他人更了解即將到來的事物以及哪些事情更容易實(shí)現(xiàn)。所以我們必須積極參與。我們必須在某種程度上負(fù)責(zé),但不能僅有我們的意見。
Lex Fridman:完全不受限制的模型有多糟糕?你了解多少?關(guān)于絕對自由言論主義如何應(yīng)用于AI系統(tǒng)的討論已經(jīng)很多了。
Sam Altman:我們曾考慮將基礎(chǔ)模型提供給研究人員或其他人使用,但它并不那么好用。每個(gè)人都說,給我基礎(chǔ)模型,我們可能會(huì)這樣做。我認(rèn)為人們主要想要的是一個(gè)符合他們世界觀的模型。這關(guān)于如何規(guī)范他人言論。在關(guān)于臉書動(dòng)態(tài)的爭論中,每個(gè)人都說,我的信息流不重要,因?yàn)槲也粫?huì)被激進(jìn)分子影響,我能應(yīng)對任何事情。但我真的很擔(dān)心臉書展示的東西。
Lex Fridman:我希望有一種方式,讓跟我交互的GPT能以一種微妙的方式呈現(xiàn)彼此沖突的思想。
Sam Altman:我認(rèn)為我們在這方面做得比人們想的要好。
Lex Fridman:當(dāng)然,評估這些東西的挑戰(zhàn)是,你總是可以找到GPT出錯(cuò)的軼事證據(jù)。比如說一些錯(cuò)誤或有偏見的東西。要是能夠?qū)ο到y(tǒng)的偏見做出一般性陳述就好了。
Sam Altman:人們在這方面做得很好。如果你問同一個(gè)問題10000次,然后從最好到最差對輸出進(jìn)行排序,大多數(shù)人看到的當(dāng)然是排名在5000左右的輸出。但是吸引所有推特關(guān)注的是排名第10000的輸出,我認(rèn)為世界需要適應(yīng)。這些模型有時(shí)候會(huì)有一個(gè)非常愚蠢的答案,在一個(gè)點(diǎn)擊截圖和分享的世界里,這可能并不具有代表性。我們已經(jīng)注意到越來越多的人會(huì)回應(yīng)說,嗯,我嘗試了一下,得到了不同的回答。所以我認(rèn)為我們正在建立抗體,但這是一個(gè)新事物。
Lex Fridman:你是否感受到了來自那些博眼球的新聞的壓力,他們關(guān)注GPT最糟糕的輸出,你是否因?yàn)檫@種壓力而感覺不透明?因?yàn)槟闶窃诠_犯錯(cuò),你會(huì)為這些錯(cuò)誤受到指責(zé)。在OpenAI的文化中,有壓力讓你害怕嗎?那種壓力可能讓你變得封閉。
Sam Altman:顯然沒有。我們做我們該做的事。
Lex Fridman:所以你沒有感覺到這種壓力。壓力確實(shí)存在,但它不會(huì)影響你。
Sam Altman:我敢肯定它有各種各樣的微妙影響,我可能不完全了解,但我沒有察覺到很多。我們很高興承認(rèn)我們的錯(cuò)誤,因?yàn)槲覀兿M絹碓胶?。我認(rèn)為我們在傾聽所有的批評意見方面做得相當(dāng)好,深入思考,內(nèi)化我們同意的觀點(diǎn);至于那些讓人喘不過氣的博眼球新聞,就盡量忽視它們。
Lex Fridman:關(guān)于OpenAI對GPT的管理工具是什么樣的?審核的過程是怎樣的?rlhf是通過排名調(diào)整,但是否存在某些不適合回答的問題,有沒有某種限制?OpenAI對GPT的審核工具長什么樣?
Sam Altman:我們確實(shí)有嘗試弄清楚“何時(shí)應(yīng)該拒絕回答某個(gè)問題”的系統(tǒng),但這一點(diǎn)尚不成熟。我們踐行公開建設(shè)的精神和逐步引導(dǎo)社會(huì)理念,推出一些有缺陷的東西,然后做得更好。我們也正在嘗試讓系統(tǒng)學(xué)會(huì)不回答的問題。
關(guān)于我們目前的工具,有一件小事讓我非常煩惱——我不喜歡被計(jì)算機(jī)責(zé)備的感覺,我真的不喜歡,我們會(huì)改進(jìn)的。
有一個(gè)一直讓我記憶猶新的故事,我不知道是不是真的,但我希望是真的,那就是史蒂夫·喬布斯在第一臺iMac背后加上那個(gè)把手的原因。你還記得那個(gè)大塑料彩色的東西嗎?這是因?yàn)槟阌肋h(yuǎn)不應(yīng)該相信一個(gè)無法扔出窗戶的計(jì)算機(jī)。當(dāng)然,并不是很多人真的會(huì)把電腦扔出窗戶。但是知道你可以這么做還是挺好的。了解這是一個(gè)完全在我控制之下的工具,這是一個(gè)為了幫助我的工具。
我認(rèn)為我們在GPT-4上做得相當(dāng)不錯(cuò)。但是我注意到,當(dāng)我被計(jì)算機(jī)責(zé)罵時(shí),我會(huì)有一種不悅的感覺。這是從部署或創(chuàng)建系統(tǒng)中獲得的一個(gè)很好的經(jīng)驗(yàn)教訓(xùn),我們可以改進(jìn)它。
Lex Fridman:這很棘手,而且對于系統(tǒng)來說,還要避免讓你覺得自己像個(gè)孩子。
Sam Altman:在公司里,我經(jīng)常說要把用戶當(dāng)成成年人對待。
Lex Fridman:但這很棘手。這和語言有關(guān),比如說,有些陰謀論,你不希望系統(tǒng)用非??瘫〉姆绞饺ビ懻?。因?yàn)槿绻蚁肓私獾厍蚴瞧降倪@個(gè)觀念,我想要全面地去探討,同時(shí)我希望GPT能幫助我探討。
Sam Altman:GPT-4在處理這方面有足夠的細(xì)微差別,既能幫助你探討這個(gè)問題,又能在過程中把你當(dāng)成成年人。GPT-3我認(rèn)為沒有辦法做到這一點(diǎn)。
Lex Fridman:如果你可以談?wù)剰腉PT-3到GPT-3.5再到GPT-4的躍進(jìn),是否有一些技術(shù)上的飛躍?
Sam Altman:基礎(chǔ)模型有很多技術(shù)飛躍,我們在OpenAI擅長的一點(diǎn)是,贏得很多小勝利,并將它們相乘,這樣每一個(gè)可能都是一個(gè)相當(dāng)大的飛躍,但實(shí)際上是它們的乘法效應(yīng)以及我們投入的細(xì)節(jié)和關(guān)注使我們?nèi)〉眠@些大飛躍,然后從外面看起來就像我們可能只是做了一件事,從3到3.5再到4。但實(shí)際上是幾百個(gè)復(fù)雜的事情。
Lex Fridman:所以是訓(xùn)練方面的小事物,還有數(shù)據(jù)組織之類的?
Sam Altman:是的,我們?nèi)绾问占瘮?shù)據(jù)、如何清洗數(shù)據(jù)、如何進(jìn)行訓(xùn)練、如何進(jìn)行優(yōu)化、如何進(jìn)行體系結(jié)構(gòu)設(shè)計(jì)等等。
03
關(guān)于神經(jīng)網(wǎng)絡(luò)
Lex Fridman:這是一個(gè)非常重要的問題,數(shù)據(jù)大小是否對神經(jīng)網(wǎng)絡(luò)的性能產(chǎn)生影響?GPT-3.5有1750億個(gè)參數(shù)。
Sam Altman:我聽說GPT-4有100萬億個(gè)。
Lex Fridman:100萬億!當(dāng)GPT-3剛發(fā)布時(shí),我在YouTube上做了演講。我給出了它是什么的描述,談到了參數(shù)的限制以及它的發(fā)展方向。我還談到了人腦以及它擁有的參數(shù)、突觸等。
Lex Fridman:我的意思是,規(guī)模并非一切,但是人們也經(jīng)常把這些討論拿出來講,這確實(shí)讓人感興趣。這就是我試圖以不同的方式比較人類大腦和神經(jīng)網(wǎng)絡(luò)之間的差異,這個(gè)東西變得如此令人印象深刻。
Sam Altman:有人今天早上告訴我一個(gè)想法,我覺得這可能是對的:這是人類迄今為止創(chuàng)造的最復(fù)雜的軟件對象,而在幾十年內(nèi)它將變得微不足道;但與我們迄今為止所做的事情相比,產(chǎn)生這一組數(shù)字的復(fù)雜性相當(dāng)高。
Lex Fridman:包括人類文明的整個(gè)歷史,達(dá)成了所有不同的技術(shù)進(jìn)步,構(gòu)建了所有的內(nèi)容、數(shù)據(jù),即GPT所接受的訓(xùn)練的互聯(lián)網(wǎng)數(shù)據(jù)。這是對所有人類的壓縮,也許不包括經(jīng)驗(yàn)。
Sam Altman:所有人類產(chǎn)生的文本輸出,(只存在)一點(diǎn)不同。
Lex Fridman:這是一個(gè)好問題。如果你只有互聯(lián)網(wǎng)數(shù)據(jù),那么你能重建多少關(guān)于人類的奇跡?我認(rèn)為我們會(huì)驚訝于你能重建多少,但你可能需要更好的模型。在這個(gè)話題上,參數(shù)數(shù)量的大小有多重要?
Sam Altman:我認(rèn)為人們在參數(shù)數(shù)量競賽中陷入了困境,就像他們在1990年代和2000年代的處理器千兆赫競賽中一樣。你可能根本不知道你手機(jī)處理器的千兆赫數(shù),但你關(guān)心的是這個(gè)東西能為你做什么。有不同的方法可以實(shí)現(xiàn)這一點(diǎn),你可以加速,但有時(shí)候這會(huì)導(dǎo)致其他問題,這也不一定是獲得收益的最佳途徑。我認(rèn)為重要的是獲得最佳性能。而且,我認(rèn)為Open AI里有一件非常好的事情是,我們非常追求真理,只做任何能提供最佳性能的事情,不管它是否是最優(yōu)雅的解決方案。所以我認(rèn)為,大型語言模型在部分領(lǐng)域是一種令人討厭的結(jié)果。每個(gè)人都想找到一種更優(yōu)雅的方法來實(shí)現(xiàn)普適智能,而我們愿意繼續(xù)做有用的事,并且看起來未來也仍然有用。
04
超級智能
Lex Fridman:你認(rèn)為大型語言模型真的是我們構(gòu)建AGI的途徑嗎?
Sam Altman:這是其中的一部分,我認(rèn)為我們還需要其他非常重要的東西。
Lex Fridman:這有點(diǎn)哲學(xué)了。從技術(shù)角度或詩意角度來看,為了直接體驗(yàn)世界,AI需要一具身體嗎?
Sam Altman:我不這樣認(rèn)為,但我也不能肯定地說這些東西。我們在這里深入探討的是未知領(lǐng)域。對于我來說,一個(gè)無法顯著增加我們可以獲取的科學(xué)知識總量的系統(tǒng),不能發(fā)現(xiàn)、發(fā)明或稱之為新的基礎(chǔ)科學(xué),那么它就不是超級智能。為了做好這個(gè),我認(rèn)為我們需要擴(kuò)展GPT范式的一些非常重要的方式,我們?nèi)匀蝗鄙龠@些想法。但我不知道這些想法是什么。我們正在努力尋找它們。
Lex Fridman:我可以提出相反的觀點(diǎn),即僅憑GPT訓(xùn)練的數(shù)據(jù),如果能夠得到正確的提示,就可以實(shí)現(xiàn)深度、大規(guī)模的科學(xué)突破。
Sam Altman:如果一個(gè)來自未來的先知告訴我,只是因?yàn)橐恍┓浅P〉男孪敕ǎ皇俏易谶@里談?wù)摰乃^了不起的想法,GPT10最終以某種方式成為了一個(gè)真正的AGI,或許,我會(huì)說,好吧,我可以相信這個(gè)。
Lex Fridman:如果你將這個(gè)提示鏈擴(kuò)展得非常遠(yuǎn),然后在增加參數(shù)量規(guī)模,那么這些事物開始融入人類社會(huì)并以此為基礎(chǔ)相互建設(shè)。我想我們并不明白這將是什么樣子,就像你說的,GPT-4剛剛發(fā)布六天而已。
Sam Altman:我對這個(gè)系統(tǒng)如此興奮的原因不是因?yàn)樗且粋€(gè)能夠自我發(fā)展的系統(tǒng),而是因?yàn)樗侨祟愓谑褂玫倪@種反饋循環(huán)中的工具,在很多方面對我們都有幫助,我們可以通過多次迭代來更多地了解其發(fā)展軌跡。我對一個(gè)AI作為人類意志的延伸、以及我們能力的放大器的世界感到興奮。這是迄今為止人類創(chuàng)建的最有用的工具??纯碩witter就知道,結(jié)果是驚人的,人們發(fā)表了很多自己與AI合獲得的高水平幸福感。所以,也許我們永遠(yuǎn)不會(huì)建立AGI,但我們會(huì)讓人類變得非常出色,這仍然是一個(gè)巨大的勝利。
Lex Fridman:我是那些人的一部分。我從與GPT一起編程中獲得了很多快樂。但其中一部分是恐懼。
Sam Altman:你能詳細(xì)說說嗎?
上圖:難以下咽的藥丸(很難接受的事實(shí))
下圖:如果你認(rèn)為AI會(huì)取代程序員,那說明你可能并不擅長編程
我今天看到的一個(gè)梗是,每個(gè)人都在擔(dān)心GPT搶走程序員的工作。但現(xiàn)實(shí)是,如果它要搶走你的工作,那就意味著你是一個(gè)糟糕的程序員。也許對于創(chuàng)造性行為和涉及編程的偉大設(shè)計(jì)的天才行為來說,人性元素是非常根本的。實(shí)際上并不是所有編程都是機(jī)械性的,某些設(shè)計(jì)和編程需要人類元素,機(jī)器不能代替它們。
Sam Altman:也許在編程的一天中,你產(chǎn)生了一個(gè)非常重要的想法,這就是貢獻(xiàn)。優(yōu)秀的程序員正在經(jīng)歷這樣的過程,而GPT之類的模型還遠(yuǎn)遠(yuǎn)沒有達(dá)到這一點(diǎn),盡管它們將自動(dòng)化大量其他編程任務(wù)。同樣,很多程序員對未來感到焦慮。但大多程序員都覺得這非常神奇,“我的生產(chǎn)力提高了10倍,別把這個(gè)功能拿走”。
Lex Fridman:我認(rèn)為從心理層面上講,目前的恐懼更像是這樣的:“這太神奇了。這太神奇了,讓我害怕。哦,咖啡喝起來太好喝了。”
Sam Altman:當(dāng)俄羅斯國際象棋大師加里·卡斯帕羅夫(Garry Kasparov)輸給了人工智能深藍(lán)(Deep Blue)時(shí),有人說,既然AI能在國際象棋中擊敗人類,那么人們將不再玩國際象棋,因?yàn)槲覀冞€有什么目標(biāo)呢?那是30年前、25年前的事了。我相信現(xiàn)在國際象棋比以往任何時(shí)候都更受歡迎,人們一直想玩、想看比賽。順便說一下,人們不怎么看兩個(gè)AI之間的對戰(zhàn),某種程度上,它們的比賽會(huì)比其他同類比賽都更好看,但這不是人們選擇做的事情。比起關(guān)心在兩個(gè)更強(qiáng)大的AI之間的比賽中發(fā)生了什么,在某種意義上,我們對人類的行為更感興趣。
Lex Fridman:實(shí)際上,當(dāng)兩個(gè)AI互相對抗時(shí),并不是一場更好的比賽,因?yàn)樵谖覀兊亩x中...
Sam Altman:(那是)無法理解的。
Lex Fridman:不,我認(rèn)為它們只是互相制造平局。我認(rèn)為也許在所有方面AI都將讓生活變得更好。但我們?nèi)匀豢释麘騽?,我們?nèi)匀豢释煌昝篮腿毕?,而這些是AI沒有的。
Sam Altman:我不想聽起來像個(gè)過于樂觀的技術(shù)專家,但如果你允許我這么說,AI能帶來的生活質(zhì)量提高是非凡的。我們可以讓世界變得美好,讓人們的生活變得美好,我們可以治愈疾病,增加物質(zhì)財(cái)富,我們可以幫助人們更快樂、更充實(shí),所有這些都可以實(shí)現(xiàn)。然后人們會(huì)說,哦,沒有人會(huì)工作。但是人們想要地位,人們想要戲劇,人們想要新事物,人們想要?jiǎng)?chuàng)造,人們想要感到有用,人們想要做所有這些事情。即使在一個(gè)好得無法想象的生活水平的世界里,我們也將找到新的不同方式去實(shí)現(xiàn)這些目標(biāo)。
Lex Fridman:但在那個(gè)世界中,積極的發(fā)展軌跡是與AI一起的。那個(gè)世界的AI是與人類保持一致,(它們)不會(huì)傷害、不會(huì)限制、不會(huì)試圖擺脫人類。有些人考慮了超級智能AI系統(tǒng)可能帶來的各種問題,其中之一是Eliezer Yudkowsky(編者注:美國決策理論和人工智能的研究者和作家)。他警告說,AI可能會(huì)殺死人類。有很多不同的說法,我認(rèn)為總結(jié)起來就是,隨著AI變得越來越智能,保持AI一致性幾乎是不可能的。你能否闡述這個(gè)觀點(diǎn)?在多大程度上你不同意這個(gè)發(fā)展軌跡?
Sam Altman:首先,我想說的是,我認(rèn)為這種可能性是存在的。非常重要的一點(diǎn)是要承認(rèn)這一點(diǎn),因?yàn)槿绻覀儾徽務(wù)撍?,如果我們不把它?dāng)做潛在的真實(shí)問題來對待,我們就不會(huì)付出足夠的努力去解決它。我認(rèn)為我們確實(shí)需要發(fā)現(xiàn)新的技術(shù)來解決這個(gè)問題。我認(rèn)為很多預(yù)測,無論是在AI能力方面,還是在安全挑戰(zhàn)和易解決部分方面,都是錯(cuò)誤的。這在任何新領(lǐng)域都是如此。我知道解決這樣的問題的唯一方法是通過反復(fù)迭代學(xué)習(xí),盡早發(fā)現(xiàn)問題,并限制犯錯(cuò)的次數(shù)。
我們需要進(jìn)行“最強(qiáng)論證”的情景。嗯,我不能只選擇一個(gè)AI安全案例或AI對齊案例,但我認(rèn)為Eliezer寫了一篇非常好的博客文章,概述了為什么他認(rèn)為對齊是一個(gè)如此棘手的問題,我認(rèn)為這篇文章推理充分、思考深入,非常值得一讀。因此,我認(rèn)為我會(huì)向人們推薦這篇文章作為最強(qiáng)論證的代表。
Lex Fridman:我也會(huì)和他談一談,因?yàn)橛幸恍┓矫婧茈y理解技術(shù)的指數(shù)級進(jìn)步,但是我一次又一次地看到,透明和迭代地嘗試、改進(jìn)技術(shù)、發(fā)布、測試,如何可以改進(jìn)對技術(shù)的理解。這種方式可以迅速調(diào)整任何類型技術(shù)的安全哲學(xué),特別是AI安全。
Sam Altman:在人們甚至不相信深度學(xué)習(xí),特別是大型語言模型之前,很多AI安全的形成性工作已經(jīng)完成了。我認(rèn)為現(xiàn)在我們已經(jīng)學(xué)到了很多東西,而且在未來我們還會(huì)學(xué)到更多,但是這些工作還沒有得到足夠的更新。因此,我認(rèn)為必須建立一個(gè)非常緊密的反饋循環(huán)。當(dāng)然,理論也起著重要的作用,但是繼續(xù)從技術(shù)發(fā)展軌跡中學(xué)到的東西也非常重要。我認(rèn)為現(xiàn)在是大力推進(jìn)技術(shù)對齊工作的非常好的時(shí)機(jī),我們正在努力找到如何做到這一點(diǎn)的方法。我們有新的工具、新的理解,還有很多重要的工作需要做,而現(xiàn)在我們可以做到這些。
Lex Fridman:所以這里的一個(gè)主要擔(dān)憂是AI突飛猛進(jìn)或快速發(fā)展,指數(shù)級改進(jìn)會(huì)非常快,以至于在幾天內(nèi),我們可能會(huì)看到這種情況。這對我來說是一個(gè)相當(dāng)嚴(yán)重的問題,尤其是在看到ChatGPT的表現(xiàn)以及GPT-4的改進(jìn)程度之后,幾乎讓每個(gè)人都感到驚訝。
Sam Altman:關(guān)于GPT-4的反應(yīng),它并沒有讓我感到驚訝。ChatGPT確實(shí)讓我們有點(diǎn)驚訝,但我仍然一直在倡導(dǎo)我們?nèi)プ鲞@件事,因?yàn)槲矣X得它會(huì)取得非常好的成果。也許我認(rèn)為它本可以成為歷史上增長速度第十快的產(chǎn)品,而不是第一快的。不過,我覺得很難預(yù)料到某個(gè)產(chǎn)品會(huì)成為有史以來最成功的產(chǎn)品發(fā)布。但我們認(rèn)為它至少會(huì)取得很好的成績。對于大多數(shù)人來說,GPT-4似乎并沒有帶來太多的改變。他們認(rèn)為,哦,它比3.5好,但我覺得它應(yīng)該比3.5好。但就像周末有人跟我說的那樣,你們發(fā)布了一個(gè)AGI(人工通用智能),但我卻沒有感受到它的影響,反而我對此并不感到驚訝。當(dāng)然,我并不認(rèn)為我們發(fā)布了一個(gè)AGI,世界運(yùn)轉(zhuǎn)如常。
Lex Fridman:當(dāng)你構(gòu)建或有人構(gòu)建AGI時(shí),它會(huì)是突然發(fā)生還是逐步發(fā)生?我們會(huì)知道它正在發(fā)生嗎?我們會(huì)過上好日子嗎?
Sam Altman:關(guān)于我們是否會(huì)過好日子,我會(huì)稍后回答。我認(rèn)為從新冠病毒、UFO視頻以及其他一些事情中,我們可以得到一些有趣的啟示。但在關(guān)于AI發(fā)展速度的問題上,我們可以想象一個(gè)2x2矩陣,你對最安全的象限有什么直覺嗎?
Lex Fridman:明年也許有不同的選擇。
Sam Altman:假設(shè)我們開始起飛階段,是在明年或20年后,然后需要1年或10年,好吧,你甚至可以說1年或5年,任何你想要的起飛時(shí)間。
Lex Fridman:我覺得現(xiàn)在更安全。我(需要)更長時(shí)間。
Sam Altman:我正在緩慢起飛。我們優(yōu)化公司的戰(zhàn)略,以在一個(gè)緩慢起飛的世界中最大限度地發(fā)揮影響,并推動(dòng)這種世界的實(shí)現(xiàn)。害怕快速起飛,因?yàn)榧夹g(shù)進(jìn)步很快,因?yàn)檫@會(huì)帶來更多挑戰(zhàn)。但從長遠(yuǎn)來看,想要一直緩慢漸進(jìn),也許是困難的。還有許多其他問題,我們正在努力解決。你認(rèn)為GPT-4是AGI嗎?
Lex Fridman:我認(rèn)為如果GPT-4是AGI,就像UFO視頻一樣,我們不會(huì)立即知道。實(shí)際上,我認(rèn)為很難確定它是否是AGI。當(dāng)我思考時(shí),我正在與GPT-4互動(dòng),并思考我如何知道它是否是AGI?因?yàn)槲艺J(rèn)為從另一個(gè)角度來看,我與這個(gè)東西交互的接口有多少是AGI,而其中有多少是實(shí)際內(nèi)部的智慧?我部分地認(rèn)為,你可以擁有一個(gè)能夠?qū)崿F(xiàn)超級智能的模型,只是它還沒有完全被解鎖。我看到的是人類反饋使得ChatGPT更驚艷、更易用。
Lex Fridman:所以也許如果你有更多的小勝利,就像你說的,OpenAI內(nèi)部有數(shù)百種小勝利的疊加,所有的東西就突然變得神圣了。
Sam Altman:我覺得盡管GPT-4相當(dāng)令人印象深刻,但它肯定不是AGI。但GPT-4依然很了不起,就我們正在進(jìn)行的這個(gè)辯論來說。
Lex Fridman:那你為什么認(rèn)為它不是呢?
Sam Altman:我認(rèn)為我們正在進(jìn)入一個(gè)具體定義AGI的階段,這真的很重要?;蛘呶覀冎皇钦f,我看到了就知道,甚至不用管定義。但在我看到的情況下,它不覺得離AGI很近。如果我正在讀一本科幻小說,里面有一個(gè)人物是AGI,而那個(gè)人物就是GPT4,我會(huì)說,這是一本糟糕的書,不是很酷。我本來希望我們做得更好一些。
Lex Fridman:在我看來,人類因素在這里很重要。你認(rèn)為GPT-4有意識嗎?
Sam Altman:我覺得沒有。
Lex Fridman:我問過GPT-4,當(dāng)然它說沒有。
Sam Altman:你認(rèn)為GPT-4有意識嗎?
Lex Fridman:我認(rèn)為它知道如何偽裝意識。
Sam Altman:如何偽裝意識?
Lex Fridman:如果你提供正確的界面和正確的提示。
Sam Altman:它肯定能回答得好像它有意識一樣。
Lex Fridman:然后事情開始變得奇怪了。假裝有意識和真正的意識之間有什么區(qū)別?
Sam Altman:你并不知道(這兩者之間的區(qū)別)。顯然,我們可以像大學(xué)新生那樣談?wù)撨@個(gè)問題。你不知道你自己不是某個(gè)高級模擬中的GPT-4。如果我們愿意到那個(gè)層面,那當(dāng)然可以。
Lex Fridman:我就生活在那個(gè)層面上。使它沒有意識的一個(gè)原因是宣稱它是一個(gè)計(jì)算機(jī)程序,因此不能有意識,但那只是把它歸類了。我相信AI可以有意識。那么問題就是,當(dāng)它有意識時(shí)會(huì)是什么樣子?它會(huì)表現(xiàn)出什么行為?它可能會(huì)說,首先,我有意識;其次,表現(xiàn)出受苦的能力;然后能理解自己,有一些關(guān)于自己的記憶,也許會(huì)與你互動(dòng)。也許有個(gè)性化的方面。我認(rèn)為所有這些能力都是接口能力,不是實(shí)際知識的基本方面,所以我認(rèn)為你在這方面上是正確的。
Sam Altman:也許我可以分享一些不相關(guān)的想法。但我告訴你一些Ilya Sutskever很久以前對我說過的話,一直留在我腦海里。
Lex Fridman:Ilya和你一起。
Sam Altman:是的,Ilya Sutskever是我的聯(lián)合創(chuàng)始人和首席科學(xué)家,是AI領(lǐng)域的傳奇人物。我們討論過如何知道一個(gè)模型是否有意識,聽到了許多想法。但他說了一種我認(rèn)為很有趣的想法。如果你訓(xùn)練一個(gè)模型,數(shù)據(jù)集在訓(xùn)練過程中極其小心,沒有意識或任何接近意識的提及,不僅沒有這個(gè)詞,而且也沒有關(guān)于主觀經(jīng)驗(yàn)或相關(guān)概念的任何東西。然后你開始跟這個(gè)模型談?wù)撘恍┠銢]有訓(xùn)練過的東西,對于大多數(shù)這些東西,模型會(huì)說,“我不知道你在說什么。”但是如果你向它描述自己關(guān)于意識的主觀經(jīng)驗(yàn)后,模型立刻會(huì)回答說,“是的,我知道你在說什么。”這會(huì)讓我有些新看法。
Lex Fridman:我不知道,這更像是關(guān)于事實(shí)而非情感的問題。
Sam Altman:我不認(rèn)為意識是一種情感。
Lex Fridman:我認(rèn)為意識是一種能力,它可以讓我們深刻地體驗(yàn)這個(gè)世界。有部電影叫《機(jī)械姬》(Ex Machina)。
Sam Altman:我聽說過這部電影,但我沒看過。
Lex Fridman:導(dǎo)演Alex Garland跟我聊過,這是一個(gè)AGI系統(tǒng)被構(gòu)建在一個(gè)女性身體里的故事,但是在電影結(jié)尾時(shí),劇透警告,當(dāng)AI逃脫時(shí),女性逃脫了。她為沒有人、沒有觀眾而微笑。她微笑是因?yàn)樗隗w驗(yàn)自由。體驗(yàn),我不知道,這是否是擬人化,但他說,這個(gè)微笑是AGI通過圖靈測試的證明。你為自己微笑而不是為觀眾微笑是一個(gè)有趣的想法。這就像你把經(jīng)歷當(dāng)作經(jīng)歷本身來看待。我不知道,這似乎更像是意識,而不是讓別人相信你有意識的能力。這感覺更像是情感而不是事實(shí)。但是,如果它確實(shí)是我們所理解的物理現(xiàn)實(shí),而且游戲的所有規(guī)則都是我們所認(rèn)為的,那么仍然會(huì)發(fā)生一些非常奇怪的事情。
所以我認(rèn)為還有許多其他類似的測試任務(wù)可以用來研究。但我個(gè)人認(rèn)為,意識是非常奇怪的東西。假設(shè)它是人類大腦特定的媒介,你認(rèn)為人工智能可以有意識嗎?
我肯定相信意識在某種程度上是基礎(chǔ)物質(zhì),而我們只是在夢中或模擬中。我認(rèn)為有趣的是,硅谷的模擬宗教和婆羅門教之間的區(qū)別非常微小,但它們是從截然不同的方向出發(fā)。也許這就是事情的真相。但如果它是我們理解的物理現(xiàn)實(shí),并且游戲的所有規(guī)則都是我們認(rèn)為的那樣,那么仍然有一些非常奇怪的事情。
Lex Fridman:讓我們詳細(xì)探討一下對齊問題,或許是控制問題。你認(rèn)為AGI可能會(huì)以哪些不同的方式出現(xiàn)問題?這種擔(dān)憂,你說過有一點(diǎn)點(diǎn)恐懼非常恰當(dāng)。Bob非常透明,他大多數(shù)時(shí)候很興奮,但也感到有點(diǎn)害怕。
Sam Altman:我認(rèn)為當(dāng)人們認(rèn)為我說“我有點(diǎn)害怕”這是一個(gè)重大突破時(shí),這是很奇怪的。我認(rèn)為不害怕有點(diǎn)瘋狂。我能夠理解那些非常害怕的人。
Lex Fridman:你對一個(gè)系統(tǒng)變得超級智能的那一刻有什么看法?你認(rèn)為你會(huì)知道嗎?
Sam Altman:我目前擔(dān)心的是,可能會(huì)出現(xiàn)虛假信息問題或經(jīng)濟(jì)震蕩等,遠(yuǎn)遠(yuǎn)超出我們所能應(yīng)對的范圍。這并不需要超級智能。這也不需要深度對齊問題,機(jī)器醒來并試圖欺騙我們。我認(rèn)為這沒有得到足夠的關(guān)注。我的意思是,現(xiàn)在開始得到更多關(guān)注了,我猜。
Lex Fridman:所以這些系統(tǒng)(如果被)部署在大規(guī)模的范圍內(nèi),可能會(huì)改變地緣政治格局等。
Sam Altman:我們?nèi)绾沃?,比如在Twitter上,我們大部分都是由LLM指導(dǎo)的,或者通過蜂巢思維。
Lex Fridman:在Twitter上,然后可能是其他地方。
Sam Altman:最終,處處如此。
Lex Fridman:我們怎么知道?
Sam Altman:我的觀點(diǎn)是我們不會(huì)知道。這是一種真正的危險(xiǎn)。如何防止這種危險(xiǎn)?我認(rèn)為可以嘗試很多方法,但現(xiàn)在,可以肯定的是,很快會(huì)有很多功能強(qiáng)大的開源LLM,而且?guī)缀鯖]有安全控制。所以你可以嘗試使用監(jiān)管途徑。你可以嘗試使用更強(qiáng)大的AI來檢測這些事情的發(fā)生。我希望我們能盡快開始嘗試很多事情。
05
恐懼
Lex Fridman:讓我們詳細(xì)探討一下對齊問題,或許是控制問題。你認(rèn)為AGI可能會(huì)以哪些不同的方式出現(xiàn)問題?這種擔(dān)憂,你說過有一點(diǎn)點(diǎn)恐懼。Bob非常透明,他大多數(shù)時(shí)候很興奮,但也感到有點(diǎn)害怕。
Sam Altman:當(dāng)有重大突破時(shí),人們有時(shí)候會(huì)說“我有點(diǎn)害怕”。我認(rèn)為不害怕有點(diǎn)瘋狂。我能夠理解那些非常害怕的人。
Lex Fridman:你對一個(gè)系統(tǒng)變得超級智能的那一刻有什么看法?你認(rèn)為你會(huì)知道嗎?
Sam Altman:我目前擔(dān)心的是,可能會(huì)出現(xiàn)虛假信息問題或經(jīng)濟(jì)震蕩等,遠(yuǎn)遠(yuǎn)超出我們所能應(yīng)對的范圍。如果超級智能醒來并試圖欺騙我們,這并不需要深度對齊。我認(rèn)為這沒有得到足夠的關(guān)注,但我猜現(xiàn)在開始有更多關(guān)注了。
Lex Fridman:所以這些系統(tǒng)(如果被)部署在大規(guī)模范圍內(nèi),可能會(huì)改變地緣政治格局等。
Sam Altman:比如在Twitter上,我們讓類似于LLM這樣的機(jī)器指導(dǎo)那些通過集體意識流動(dòng)的信息,我們?nèi)绾沃滥?
Lex Fridman:在Twitter上,然后可能是其他地方。
Sam Altman:最終,處處如此。
Lex Fridman:我們怎么知道?
Sam Altman:我的觀點(diǎn)是我們不會(huì)知道。這是一種真正的危險(xiǎn)。如何防止這種危險(xiǎn)?我認(rèn)為可以嘗試很多方法,但現(xiàn)在,可以肯定的是,很快會(huì)有很多功能強(qiáng)大的開源LLM,而且?guī)缀鯖]有安全控制。所以你可以嘗試使用監(jiān)管途徑,你可以嘗試使用更強(qiáng)大的AI來檢測這些事情的發(fā)生。我希望我們能盡快開始嘗試很多事情。
06
競爭
Lex Fridman:將會(huì)有很多開源的、很多大型語言模型。在這種壓力下,如何始終優(yōu)先考慮安全問題?我的意思是,有好幾個(gè)壓力來源。其中一個(gè)是來自其他公司的市場驅(qū)動(dòng)壓力。(比如)谷歌、蘋果、Meta以及一些小公司。你如何抵制來自這方面的壓力,或者說你如何應(yīng)對這種壓力?
Sam Altman:堅(jiān)持你的信念,堅(jiān)持你的使命。我相信人們會(huì)在各種方面超越我們,采取我們不會(huì)采取的捷徑。我們就是不會(huì)那么做。你如何與他們競爭?
Sam Altman:我認(rèn)為世界上會(huì)有許多AGI,所以我們不必與所有人競爭。我們將貢獻(xiàn)一些,其他人也將貢獻(xiàn)一些。這些AGI的構(gòu)建方式、所做的事情和關(guān)注的焦點(diǎn)會(huì)有所不同,這是好事。我們公司是有限盈利的組織,所以我們沒有追求無限利潤的動(dòng)力,我擔(dān)心那些有這個(gè)動(dòng)力的人,但希望一切都能順利進(jìn)行。我們是一個(gè)有些奇怪的組織,擅長拒絕項(xiàng)目。像我們這樣的組織長期以來一直被誤解和嘲笑。當(dāng)我們2015年底宣布要研究AGI時(shí),人們認(rèn)為我們瘋了。我記得當(dāng)時(shí)一個(gè)著名的人工智能科學(xué)家在一家大型工業(yè)人工智能實(shí)驗(yàn)室私信給一些記者,說這些人并不很優(yōu)秀,談?wù)揂GI是荒謬的,我不敢相信你們會(huì)關(guān)注他們。這就是當(dāng)一個(gè)新團(tuán)隊(duì)說要嘗試構(gòu)建AGI時(shí),圈子里會(huì)出現(xiàn)何種程度的小氣和惡意。
Lex Fridman:在嘲笑面前,OpenAI和DeepMind是少數(shù)敢于談?wù)揂GI的人。
Sam Altman:我們現(xiàn)在很少被那么取笑了。
07
非營利到有限營利
Lex Fridman:現(xiàn)在不再那么被嘲笑了。那么說說組織的結(jié)構(gòu)吧。OpenAI不再是非營利組織,還是分裂了?你能用一種方式描述一下整個(gè)過程嗎?
Sam Altman:我們開始是一個(gè)非盈利組織,但我們很早就意識到,我們需要的資本遠(yuǎn)遠(yuǎn)超過了我們作為一個(gè)非盈利組織所能籌集到的。我們的非盈利組織仍然完全控制,同時(shí)我們成立了一個(gè)有限利潤的子公司,使我們的投資者和員工可以獲得一定的回報(bào)。除此之外,其他所有東西都流向非盈利組織,非盈利組織具有投票控制權(quán),讓我們做出一系列非標(biāo)準(zhǔn)決策,可以取消股權(quán),還可以做其他一些事情,比如讓我們與另一個(gè)組織合并,保護(hù)我們不做出任何不符合股東利益的決策等。所以我認(rèn)為這個(gè)結(jié)構(gòu)對我們做出的很多決策都很重要。
Lex Fridman:從非盈利轉(zhuǎn)為有上限的盈利組織的決策過程中,你當(dāng)時(shí)在權(quán)衡哪些利弊?
Sam Altman:真正轉(zhuǎn)變的原因是為了完成我們需要做的事情。我們嘗試過以非盈利組織的身份籌集資金,但失敗了。所以我們需要資本主義的一些優(yōu)勢,但不要太多。我記得當(dāng)時(shí)有人說,作為一個(gè)非盈利組織,我們很多事還沒做到;作為一個(gè)盈利組織,我們做到的事太多了。所以我們需要這種奇怪的中間狀態(tài)。
Lex Fridman:你的態(tài)度很隨和。那你擔(dān)心那些與AGI打交道的以盈利為目的公司嗎?你能詳細(xì)說明一下你的擔(dān)憂嗎?因?yàn)锳GI是我們手中所有技術(shù)中,最有潛力使OpenAI的上限提高100倍的。
Sam Altman:這個(gè)數(shù)字對于新進(jìn)的投資者的預(yù)期來說要低得多。
Lex Fridman:AGI能賺的錢遠(yuǎn)不止100倍。
Sam Altman:當(dāng)然。
Lex Fridman:那么,你是如何在OpenAI之外進(jìn)行競爭的?你如何看待一個(gè)谷歌、蘋果和Meta等公司參與其中的AI世界?
Sam Altman:我們無法控制其他人會(huì)做什么。我們可以嘗試去構(gòu)建一些東西,談?wù)撍绊懰?,為世界提供有價(jià)值和良好的系統(tǒng),但他們最終還是會(huì)按照自己的意愿行事。我認(rèn)為現(xiàn)在某些公司內(nèi)部的發(fā)展速度非常快,但并非十分深思熟慮。然而,隨著人們看到進(jìn)步的速度,他們已經(jīng)開始意識到這里面所涉及的利害關(guān)系,并為之努力。我相信最終善良的一面將會(huì)戰(zhàn)勝惡劣的一面。
Lex Fridman:能詳細(xì)說明一下什么是“更好的天使般的個(gè)體”嗎?
Sam Altman:資本主義創(chuàng)造和捕獲無限價(jià)值的動(dòng)力讓我有點(diǎn)擔(dān)憂,但同樣,我認(rèn)為沒有人想要摧毀這個(gè)世界,沒有人醒來就說,今天我想摧毀這個(gè)世界。所以我們一方面面臨著這個(gè)問題,另一方面,我們有很多人非常清楚這一點(diǎn),我認(rèn)為關(guān)于我們?nèi)绾魏献饕越档瓦@些非??膳碌母弊饔玫挠懻撘呀?jīng)非常健康了。
08
權(quán)力
Lex Fridman:好吧,沒人想毀滅世界。讓我問你一個(gè)難題,你很有可能是創(chuàng)建AGI的人之一,雖然不是唯一的人。
Sam Altman:我們是一個(gè)多人團(tuán)隊(duì),而且將會(huì)有很多團(tuán)隊(duì)。
Lex Fridman:但還是相對較少的人數(shù)。最終會(huì)有一個(gè)房間里有幾個(gè)人說:“哇。”這是世界上一個(gè)美麗的地方。令人恐懼,但主要是美麗。這可能使你和少數(shù)幾個(gè)人成為地球上最有權(quán)力的人類。你擔(dān)心權(quán)力可能會(huì)腐化你嗎?
Sam Altman:當(dāng)然。我認(rèn)為你希望這項(xiàng)技術(shù)的決策,以及誰來運(yùn)營這項(xiàng)技術(shù)的決策,會(huì)隨著時(shí)間的推移變得越來越民主。我們還沒有完全弄清楚如何做到這一點(diǎn),但部署這樣的技術(shù)的部分原因是讓世界有時(shí)間去適應(yīng)、反思并思考這個(gè)問題,通過監(jiān)管、制定新的規(guī)范,讓人們共同努力。這就是我們部署這個(gè)技術(shù)的一個(gè)重要原因。盡管你之前提到的許多AI安全專家認(rèn)為這很糟糕,但他們也承認(rèn)這有一定的好處。我認(rèn)為任何一個(gè)人完全掌控這個(gè)技術(shù)都是非常糟糕的。
Lex Fridman:所以試著分散權(quán)力。
Sam Altman:(這是一種)解決方案。我不想要任何超級投票權(quán)或者類似的特殊權(quán)力。我不喜歡控制OpenAI的董事會(huì)或者類似的事物。
Lex Fridman:但是,如果創(chuàng)建了AGI,它將擁有很大的權(quán)力。
Sam Altman:你認(rèn)為我們做得怎么樣?誠實(shí)地說,你覺得我們的決策是好是壞?我們還能做得更好嗎?
Lex Fridman:因?yàn)槲艺J(rèn)識很多OpenAI的人,我非常喜歡你們的透明度。你所說的一切,比如公開失敗、撰寫論文、公開發(fā)布有關(guān)安全問題的各種信息,這些都非常好,尤其是與其他一些公司相比,他們更加封閉。話雖如此,你可以更加開放。
Sam Altman:你認(rèn)為我們應(yīng)該開源GPT-4嗎?
Lex Fridman:因?yàn)槲艺J(rèn)識OpenAI的人,我的個(gè)人觀點(diǎn)是不。
Sam Altman:認(rèn)識OpenAI的人和這個(gè)問題有什么關(guān)系?
Lex Fridman:因?yàn)槲抑浪麄兌际呛萌?。我認(rèn)識很多人。我知道他們是好人。從那些不了解這些人的人的角度來看,把如此強(qiáng)大的技術(shù)掌握在少數(shù)人手中的做法令人擔(dān)憂,這是封閉的。
Sam Altman:從某種意義上說,這是封閉的,但我們提供了更多的訪問權(quán)限。如果這是谷歌來操盤,我覺得他們很難開放API。這其中存在公關(guān)風(fēng)險(xiǎn),我因?yàn)檫@個(gè)一直受到個(gè)人威脅。我認(rèn)為大多數(shù)公司不會(huì)這樣做。所以,也許我們沒有像人們希望的那樣開放,但我們已經(jīng)相當(dāng)廣泛地開放了。
Lex Fridman:你個(gè)人和OpenAI的文化并不是那么擔(dān)心公關(guān)風(fēng)險(xiǎn)和所有這些事情,你更擔(dān)心實(shí)際技術(shù)的風(fēng)險(xiǎn)。而且你揭示了人們的緊張情緒,因?yàn)榧夹g(shù)現(xiàn)在還處于早期階段,隨著時(shí)間推移,你會(huì)關(guān)閉。這是否因?yàn)槟銈兊募夹g(shù)越來越強(qiáng)大了?如果你受到了太多煽動(dòng)恐懼、標(biāo)題黨新聞的攻擊,你會(huì)不會(huì)產(chǎn)生一種疑問:我為什么要處理這個(gè)?
Sam Altman:我認(rèn)為對我來說,標(biāo)題黨新聞更讓你煩。我覺得沒什么大不了的。在我失去的所有東西中,這并不是排在很高的位置。
Lex Fridman:因?yàn)檫@很重要。有一些公司和一些人正在大力推動(dòng)這一進(jìn)程。他們是很了不起的人,我不希望他們對世界其他地方變得憤世嫉俗。
Sam Altman:我認(rèn)為OpenAI的人們感受到了我們所做事情的責(zé)任重大。如果新聞?dòng)浾邔ξ覀兏押茫琓witter上的噴子給我們更多的疑慮余地,那當(dāng)然會(huì)很好。但我認(rèn)為我們在做什么、為什么以及其重要性方面有很大的決心。但我真的很想知道,我問過很多人,不僅僅是在攝像機(jī)拍攝的時(shí)候,你有什么建議可以讓我們做得更好。我們現(xiàn)在置身于未知的領(lǐng)域。與聰明人交談就是我們?nèi)绾握页鲎龅酶玫姆椒ā?/p>
Lex Fridman:你是如何從Twitter上獲取反饋的?
Sam Altman:我的Twitter無法閱讀,所以有時(shí)候我會(huì)從信息流中取一點(diǎn)樣本,但我主要是通過像跟你這樣的對話來得到反饋。
09
Elon Musk
Lex Fridman:你們在OpenAI背后的一些想法上與Elon Musk緊密合作,并在很多事情上達(dá)成了一致,在某些事情上存在分歧。你們在哪些有趣的事情上達(dá)成一致和分歧?談?wù)撘幌略赥witter上的有趣辯論。
Sam Altman:我認(rèn)為我們在AGI的潛在劣勢、確保AI安全性,以及使人們因?yàn)锳GI的存在而比從未構(gòu)建AGI時(shí)更好的世界方面,達(dá)成了一致。
Lex Fridman:你們在哪里產(chǎn)生了分歧?
Sam Altman:Elon顯然現(xiàn)在在Twitter上針對我們的某些方面進(jìn)行了攻擊,我感同身受,因?yàn)槲蚁嘈潘麑GI安全性的擔(dān)憂是可以理解的。我敢肯定還有其他一些動(dòng)機(jī),但這肯定是其中之一。很久以前,我看過一段Elon談?wù)揝paceX的視頻。也許他在某個(gè)新聞節(jié)目里,很多早期的太空先驅(qū)們都在嚴(yán)厲地批評SpaceX和Elon,他顯然對此非常受傷,說他希望他們能看到團(tuán)隊(duì)正在努力。盡管他在Twitter上是個(gè)混蛋,但我從小就把Elon當(dāng)作我的英雄。我很高興他存在于這個(gè)世界,但我希望他能更關(guān)注我們?yōu)榱俗鰧@些事情而付出的努力。
Lex Fridman:多一點(diǎn)愛。在愛的名義下,你欽佩Elon Musk的什么?
Sam Altman:太多了,他以重要的方式推動(dòng)了世界的發(fā)展。我認(rèn)為如果沒有他,我們會(huì)比現(xiàn)在更慢地實(shí)現(xiàn)電動(dòng)汽車的普及。如果沒有他,我們也會(huì)更慢地進(jìn)入太空。作為世界公民,我對此非常感激。此外,除了在Twitter上偶爾像個(gè)混蛋外,在很多情況下,他都是一個(gè)非常幽默和熱情的家伙。
Lex Fridman:在Twitter上,作為一個(gè)喜歡觀察人類復(fù)雜性與人性光輝的粉絲,我很享受各種觀點(diǎn)之間的緊張碰撞。我之前提到很欽佩你的透明度,但我更喜歡看到這些觀點(diǎn)之爭就在我們眼前展開,而不是每個(gè)人都在封閉的會(huì)議室里進(jìn)行。這一切都非常吸引人。
Sam Altman:也許我應(yīng)該反擊,也許有一天我會(huì)這么做,但這并不符合我的一貫風(fēng)格。
Lex Fridman:觀察這一切非常有趣。我認(rèn)為你們兩個(gè)都是非常聰明的人,早早對人工智能產(chǎn)生了關(guān)注,并對其抱有很大的擔(dān)憂和希望。看到這些偉大的思想家們進(jìn)行這些討論,即使有時(shí)候會(huì)產(chǎn)生一種緊張的氛圍,但是真的很酷。我想是Elon說GPT太過“覺醒”了,你覺得呢?這關(guān)乎我們的偏見。
Sam Altman:我現(xiàn)在幾乎不知道“覺醒”是什么意思了。我曾經(jīng)知道,但我覺得這個(gè)詞已經(jīng)變味了。所以我會(huì)說,我認(rèn)為它有偏見,世界上永遠(yuǎn)不會(huì)有一個(gè)公認(rèn)為無偏見的GPT版本。我認(rèn)為我們已經(jīng)取得了很大的進(jìn)展,甚至我們最嚴(yán)厲的批評者也在談?wù)?.5和4的比較時(shí)感嘆說,“哇,這些人真的變得好多了”。不是說不需要繼續(xù)努力,我們當(dāng)然也要努力,但我很欣賞那些表現(xiàn)出誠實(shí)的批評者,這些人比我想象中的要多。我們會(huì)盡量讓默認(rèn)版本盡可能中立,但如果要為每個(gè)人做到中立,那可能就不是那么中立了。所以,我認(rèn)為真正的發(fā)展方向是讓用戶有更多的操控能力,特別是通過系統(tǒng)消息。正如你指出的,這些微妙的答案可以從多個(gè)角度來看待問題。
Lex Fridman:這真的非常非常迷人,很有趣。關(guān)于公司員工會(huì)影響系統(tǒng)偏見這一點(diǎn),你有什么想說的嗎?
Sam Altman:100%會(huì)。我們試圖避免舊金山的團(tuán)體思維泡沫,更難避免的是到處的AI團(tuán)體思維泡沫。
Lex Fridman:我們100%生活在各種泡沫中。
Sam Altman:我很快就要進(jìn)行一個(gè)為期一個(gè)月的環(huán)球用戶調(diào)研,去不同的城市和我們的用戶交談。我非常期待,這么多年來我從來沒有這樣做過。我過去在YC時(shí)經(jīng)常這樣做,和處在非常不同背景下的人交談。這在互聯(lián)網(wǎng)上是行不通的。(你得)親自去見他們,坐下來,去他們?nèi)サ木瓢桑袼麄円粯幼哌^城市。你會(huì)學(xué)到很多東西,擺脫泡沫。我認(rèn)為我們比我所知道的任何一家舊金山公司都更擅長避免陷入舊金山的瘋狂,但我相信我們?nèi)匀簧钕萜渲小?/p>
Lex Fridman:是否有可能區(qū)分模型的偏見和員工的偏見?
Sam Altman:我最擔(dān)憂的偏見是人類反饋評價(jià)者的偏見。
Lex Fridman:人類評價(jià)者是怎么選拔的?你能從一個(gè)較高的層次談?wù)勱P(guān)于人類評價(jià)者的選拔嗎?
Sam Altman:這是我們理解得最不好的部分。我們在預(yù)訓(xùn)練機(jī)器方面做得很好,現(xiàn)在正試圖弄清楚如何選擇這些人,如何驗(yàn)證我們得到了具有代表性的樣本,如何針對不同地區(qū)采用不同的方法。但我們尚未構(gòu)建出這樣的功能。
Lex Fridman:這是一門令人著迷的科學(xué)。
Sam Altman:你顯然不希望所有美國精英大學(xué)的學(xué)生都給你貼標(biāo)簽。
Lex Fridman:這不是關(guān)鍵。
Sam Altman:我明白。我只是忍不住諷刺。
Lex Fridman:但這是個(gè)好方法。你可以使用一百萬種方法,因?yàn)槿魏我粋€(gè)你認(rèn)為擁有特定信仰的人類類別,實(shí)際上可能非常開明,有趣,你必須優(yōu)化你在執(zhí)行這些評價(jià)任務(wù)時(shí)的實(shí)際回答效果。你對其他人類經(jīng)歷的共情能力有多強(qiáng)?
Sam Altman:這是一個(gè)很重要的問題。
Lex Fridman:實(shí)際上,各種群體的人們在回答這個(gè)問題時(shí)的世界觀是什么樣的?我的意思是,我必須不斷地去做這件事。
Sam Altman:你問過我們幾次,這是我經(jīng)常做的事情。我在面試中要求人們?nèi)ハ胨麄冋嬲煌獾娜说挠^點(diǎn),包括Elon。許多人甚至都不能假裝他們愿意這樣做,這是非常值得注意的。
Lex Fridman:不幸的是,自從新冠病毒以來,我發(fā)現(xiàn)情況變得更糟,幾乎存在一種情感障礙。這甚至不是一種智力障礙。在他們達(dá)到智力層面之前,就有一種情感障礙在說,不,任何可能相信這個(gè)觀點(diǎn)的人,他們都是笨蛋、邪惡的、惡毒的。你想怎么指責(zé)都行,就像他們甚至沒有把數(shù)據(jù)加載到腦子里一樣。
Sam Altman:你看,我認(rèn)為我們會(huì)發(fā)現(xiàn),我們可以讓GPT系統(tǒng)比任何人類更少的偏見。
Lex Fridman:所以希望不會(huì)有(偏見)。
Sam Altman:因?yàn)锳I不會(huì)有那種情感負(fù)擔(dān)。
Lex Fridman:但可能會(huì)有政治壓力
Sam Altman:哦,可能會(huì)有制造偏見系統(tǒng)的壓力。我要說的是,我認(rèn)為這項(xiàng)技術(shù)將能夠更少地產(chǎn)生偏見。
10
監(jiān)管
Lex Fridman:對于來自外部的壓力(比如來自社會(huì)的、政治的、金錢的),你是期待還是擔(dān)心?
Sam Altman:我既擔(dān)心它,又想戳破這個(gè)泡沫。我們不應(yīng)該做所有決定,就像我們希望社會(huì)在AI有巨大程度的投入一,這在某種程度上是壓力。
Lex Fridman : 嗯,有些事情在某種程度上被透露出來了,Twitter的文件顯示不同組織對某些事情施加了壓力。疫情期間,CDC或其他政府組織可能會(huì)對我們不太確定的事情施加壓力,現(xiàn)在類似這種微妙的對話是很有風(fēng)險(xiǎn)的,所以會(huì)讓我們審查所有話題。你會(huì)收到很多這樣的郵件,來自不同地方的不同人,以施加微妙的、間接的、直接的、財(cái)政的、政治的壓力,等等。如果GPT變得越來越智能,并成為人類文明的信息和知識來源,像這樣的事情,你如何應(yīng)對,你有多擔(dān)心這些?
Sam Altman:我認(rèn)為我有很多怪癖,(這些怪癖)讓我覺得自己對OpenAI來說不是一個(gè)合格的CEO。但積極的一點(diǎn)是,我認(rèn)為我相對擅長不易被壓力所影響。
Lex Fridman:題外話,(剛剛的發(fā)言真是)美麗的謙遜聲明。但我想要問,有哪些負(fù)面的影響呢?
Sam Altman:首先什么是好的(影響)。我認(rèn)為我不是一個(gè)AI浪潮的最佳代言人,我想說,可能會(huì)有更加熱愛這個(gè)領(lǐng)域的人,也可能會(huì)有更加有魅力的人,或者更加善于與人溝通的人。我認(rèn)為,這些人可能更好地與人們建立聯(lián)系。
Lex Fridman:我認(rèn)為“卡里斯瑪”(魅力型領(lǐng)袖)可能是一件危險(xiǎn)的事情。在溝通方式上的缺陷和瑕疵,至少對于掌權(quán)的人來說通常來說是一種特征,而不是一個(gè)錯(cuò)誤。
Sam Altman:我覺得我還有比這更嚴(yán)重的問題。我認(rèn)為我與大多數(shù)人的生活現(xiàn)實(shí)相當(dāng)脫節(jié),試圖不僅僅是感同身受,而是內(nèi)化AGI對人類的影響。相比其他人,我可能感受到得更少。
Lex Fridman:說得很好。你說過你會(huì)環(huán)游世界去感同身受地了解不同的用戶。
Sam Altman:不是共情,比方說給我們的用戶、開發(fā)者,買杯飲料,問問他們希望改變什么。目前我們做的還不夠好。但我認(rèn)為一家好公司應(yīng)該具有的特點(diǎn)是,以用戶為中心。我目前感受到,當(dāng)信息層層過濾到我這里時(shí),已經(jīng)完全沒有意義了。因此,我真的想和來自不同背景的用戶進(jìn)行交流。
Lex Fridman:就像你說的,“和用戶喝一杯”。不過我在編程方面有些擔(dān)憂,從情感上講,我認(rèn)為這沒有任何意義。GPT讓我對未來感到緊張,不是出于人工智能安全方面的考慮,而是變革,是對變革的緊張感。
Sam Altman:相比于興奮,更多的是緊張?
Lex Fridman:如果我忽略了我是一個(gè)AI人,是一個(gè)程序員,那我會(huì)更興奮,但仍然會(huì)感到有些緊張。
Sam Altman:那些說他們不緊張的人,很難讓我相信。
Lex Fridman:但是你很興奮。對變化感到緊張,對重大激動(dòng)人心的變化感到緊張。我最近開始使用,我一直是一個(gè)Emacs(文本編輯器)用戶,用了很長時(shí)間,然后我換成了VS code(微軟開發(fā)的免費(fèi)開源代碼編輯器)。
Sam Altman:和 Copilot 一起工作。
Lex Fridman:這正是很多開發(fā)者活躍的原因之一。當(dāng)然,你可能可以在Emacs中使用copilot。
Sam Altman:也很不錯(cuò)。
Lex Fridman: VS Code有很多優(yōu)點(diǎn)。我很高興,并且在與其他人交流時(shí)也得到了很多正面的反饋。但是在做出這個(gè)決定的時(shí)候,我也有很多不確定性和緊張。即使是采用Copilot這樣的新技術(shù),也會(huì)讓人感到緊張。但是,就我作為一個(gè)純程序員而言,我的生活變得更好了,不論是從什么角度來看。但是,我們在面對這種不確定性時(shí),應(yīng)該如何安慰人們的緊張和擔(dān)憂,通過與他們交流,我們可以更好地理解這些問題。
Sam Altman:你用得越多,緊張感越多,而不是越少嗎?
Lex Fridman:是的,我不得不說是的,因?yàn)槲易兊酶朴谑褂盟?/p>
Sam Altman:因此,學(xué)習(xí)曲線是相當(dāng)陡峭的。
Lex Fridman:然后,有時(shí)你會(huì)發(fā)現(xiàn)它能夠很美妙地生成一個(gè)函數(shù)。你坐下來,既像一個(gè)父母一樣感到自豪,又幾乎像是感到害怕,因?yàn)檫@個(gè)東西將比我聰明得多。既感到驕傲又感到悲傷。像是一種憂郁的感覺,但最終是喜悅的。我想知道,你認(rèn)為 GPT 語言模型會(huì)比人類更擅長哪些工作?
Sam Altman:全部流程?整個(gè)端到端做得更好,像它幫助你提高生產(chǎn)率可能達(dá)到10倍那樣。
Lex Fridman:這個(gè)問題很好,如果我變得更有效率,那么意味著在這個(gè)領(lǐng)域中需要的程序員數(shù)量將大大減少。
Sam Altman:我認(rèn)為世界會(huì)發(fā)現(xiàn),如果你以相同的價(jià)格可以得到十倍的代碼量,你就可以使用更多的代碼。
Lex Fridman:要寫更多的代碼。
Sam Altman:這代表了更多的代碼。
Lex Fridman:的確,還有很多東西可以被數(shù)字化。可以有更多的代碼和更多的東西。
Sam Altman:這里有一個(gè)供應(yīng)問題。
Lex Fridman:那么,在真正取代工作方面,這對你來說是一個(gè)擔(dān)憂嗎?
Sam Altman:我在思考一個(gè)我認(rèn)為可能會(huì)受到巨大影響的大類別。我想我會(huì)說客戶服務(wù)是一個(gè)我可以看到在不久的將來有更少工作的類別。我不確定這一點(diǎn),但我相信它會(huì)。
Lex Fridman:所以像有關(guān)何時(shí)服用這種藥物的基本問題,如何使用這個(gè)產(chǎn)品的問題?就像我們的員工現(xiàn)在在做的呼叫一樣?
Sam Altman:我想要明確一下,我認(rèn)為這些系統(tǒng)會(huì)讓很多工作消失,每一次技術(shù)革命都是如此。它們將增強(qiáng)許多工作,使它們變得更好、更有趣、更高薪,并且將創(chuàng)造一些我們很難想象的新工作,我們已經(jīng)開始看到它們的雛形。
上周我聽到有人談?wù)揋PT-4,說工作的尊嚴(yán)真的很重要。我們確實(shí)必須擔(dān)心那些認(rèn)為自己不喜歡工作的人,他們也需要工作,這對他們和整個(gè)社會(huì)都非常重要。還有,你能相信法國試圖提高退休年齡是多么糟糕嗎?我認(rèn)為我們這個(gè)社會(huì)對于人們是想要更多地工作、還是更少地工作感到困惑,而且關(guān)于大多數(shù)人是否喜歡自己的工作并從中獲得價(jià)值的問題,我們也存在一些困惑。有些人喜歡自己的工作,我也喜歡我的工作,我猜你也是。這是一種真正的特權(quán),不是每個(gè)人都能說得出這句話。
如果我們可以讓更多的人擁有更好的工作,并將工作變成一個(gè)更廣泛的概念,而不是為了吃飯而必須做的事情,而是一種創(chuàng)造性的表達(dá)方式和找到滿足和幸福的方式,即使那些工作看起來與今天的工作極為不同。我認(rèn)為這很好。
Lex Fridman:你一直是人工智能背景下普遍基本收入(UBI)的支持者。你能描述一下對于有了UBI后的人類未來嗎?您為什么喜歡它?還有哪些限制呢?
UBI(Universal Basic Income,全球基本收入)是一種社會(huì)保障制度,旨在為每個(gè)公民或居民提供定期的無條件現(xiàn)金支付。這個(gè)金錢可以用來滿足基本生活需求,如食物、住房和醫(yī)療。UBI的支持者認(rèn)為這種制度可以減少貧困、縮小貧富差距,并提高生活質(zhì)量。然而,反對者擔(dān)心它可能導(dǎo)致通貨膨脹、勞動(dòng)力減少以及對福利制度的削減。全球基本收入的實(shí)施和影響因國家和地區(qū)而異。
Sam Altman:我認(rèn)為UBI是我們應(yīng)該追求的一部分,但不是全部的解決方案。人們工作除了為了錢之外還有很多原因,我們會(huì)發(fā)現(xiàn)令人難以置信的新工作,整個(gè)社會(huì)和個(gè)人的生活水平會(huì)大大提高。但作為一個(gè)在巨大轉(zhuǎn)變中的緩沖階段,就像我認(rèn)為世界應(yīng)該消除貧困一樣,如果能夠這樣做,我認(rèn)為這是一件好事。作為解決方案的一小部分,我參與創(chuàng)立了一個(gè)名為Worldcoin的項(xiàng)目,這是一個(gè)技術(shù)解決方案。我們還資助了一個(gè)非常大型、最全面的UBI研究,由Open AI贊助。我認(rèn)為這是一個(gè)我們應(yīng)該繼續(xù)研究的領(lǐng)域。
Lex Fridman:你從這項(xiàng)研究中獲得了哪些啟示?
Sam Altman:我們將在今年年底完成,希望我們能夠在明年的早些時(shí)候談?wù)撍?/p>
Lex Fridman:當(dāng)人工智能成為社會(huì)的一個(gè)普遍組成部分時(shí),經(jīng)濟(jì)和政治系統(tǒng)會(huì)發(fā)生什么變化?這是一個(gè)有趣的哲學(xué)問題,從現(xiàn)在起看向未來10年、20年、50年,經(jīng)濟(jì)是什么樣子?政治是什么樣子的?你認(rèn)為在民主運(yùn)作的方式上會(huì)有重大的轉(zhuǎn)變嗎?
Sam Altman:我很喜歡你把它們放在一起問,因?yàn)槲艺J(rèn)為它們非常相關(guān)。我認(rèn)為經(jīng)濟(jì)轉(zhuǎn)型將驅(qū)動(dòng)政治轉(zhuǎn)型,而不是相反。我過去5年的工作模型是,在接下來的幾十年里,智能和能源成本將從今天的水平急劇下降。它的影響,你已經(jīng)可以看到了,比如你現(xiàn)在有了超越個(gè)人編程能力的工具,社會(huì)將變得更加富裕,更加富有,這可能是難以想象的。我認(rèn)為每次這種情況發(fā)生時(shí),它的經(jīng)濟(jì)影響也會(huì)帶來積極的政治影響。我認(rèn)為它也是相互關(guān)聯(lián)的,啟蒙時(shí)期的社會(huì)政治價(jià)值觀促成了我們過去幾個(gè)世紀(jì)以來持續(xù)不斷的技術(shù)革命和科學(xué)發(fā)現(xiàn)過程,但我認(rèn)為我們只會(huì)看到更多的變化。我相信形式會(huì)改變,但這會(huì)是一個(gè)長而美麗的指數(shù)曲線。
Lex Fridman:你認(rèn)為會(huì)有更多民主社會(huì)主義的系統(tǒng)嗎?
Sam Altman:本能的來說。是的,我希望如此。
Lex Fridman:重新分配資源,支持提升那些處境困難的人。
Sam Altman:我對提升底層人們生活的處境非常有自信,而且不必?fù)?dān)心上限。
Lex Fridman:有些部分已經(jīng)被人類反饋的強(qiáng)化學(xué)習(xí)所處理。但我覺得必須要有工程化的東西。
Lex Fridman:不確定性。
Lex Fridman:如果用一個(gè)浪漫的詞來形容它,比如說“人性”,你認(rèn)為這有可能做到嗎?
Sam Altman:這些詞的定義真的很重要?;谖覍I的理解,是的,我覺得有可能做到。
Lex Fridman:什么會(huì)是那個(gè)開關(guān)呢?
Sam Altman:就像有一個(gè)我們沒有告訴任何人的紅色按鈕,在數(shù)據(jù)的正中心。
Lex Fridman:你認(rèn)為有可能有一個(gè)開關(guān)嗎?更具體地說,關(guān)于不同的系統(tǒng),你認(rèn)為有可能隨意開放、關(guān)閉、重新開放嗎?
Sam Altman:我們當(dāng)然可以把一個(gè)模型收回,我們可以把一個(gè)API關(guān)掉。
Lex Fridman:作為一款人工智能語言模型,它沒有情感或憂慮。然而,對于開發(fā)人員和設(shè)計(jì)師來說,考慮其產(chǎn)品和服務(wù)的潛在后果是非常重要的,特別是當(dāng)它擁有數(shù)百萬用戶時(shí),意識到用戶正在使用它時(shí),可能需要擔(dān)心各種可怕的使用情況。
Sam Altman:我們確實(shí)對此非常擔(dān)憂。我是說,我們盡量多地進(jìn)行紅隊(duì)測試和提前檢驗(yàn),以找出避免這些問題的方法。然而,我必須強(qiáng)調(diào),全球的集體智慧和創(chuàng)造力比所有我們能雇傭的紅隊(duì)成員更知道怎么做。所以我們推出了這個(gè)有缺陷的版本,同時(shí)讓人們可以進(jìn)行調(diào)整。
Lex Fridman:在使用Chatgpt和GPT-4的數(shù)百萬人中,我們能從中了解到人類文明的一般情況嗎?我的意思是,我們大多數(shù)人是善良的嗎?還是人類精神中存在很多惡意?
Sam Altman:需要明確一點(diǎn),我和OpenAI的其他人都沒有閱讀所有ChatGPT消息的權(quán)力。但是從我聽到的說法,至少是我與之交談的人和我在Twitter上看到的內(nèi)容來看,我們大多數(shù)人肯定是善良的。但是,一方面,并非所有人總是如此;另一方面,我們想要推動(dòng)這些系統(tǒng)的邊界,也想要測試一些更黑暗的世界理論。
Lex Fridman:這非常有趣。我認(rèn)為這并不意味著我們內(nèi)心本質(zhì)上是黑暗的,但我們喜歡去一些黑暗的地方,也許是為了重新發(fā)現(xiàn)光明,感覺黑色幽默是其中的一部分。一些最黑暗的、最艱難的經(jīng)歷,例如在戰(zhàn)爭區(qū)域中生活的人們,我與之互動(dòng)過的人,他們…
Sam Altman:還在身邊開著玩笑。
Lex Fridman:對身邊的一切開著玩笑,而且是黑色的笑話。
Sam Altman:我完全同意。
11
真實(shí)與虛假
Lex Fridman:作為一款A(yù)I語言模型,我沒有獨(dú)立決定什么是誤導(dǎo)信息或什么是真實(shí)的能力。但是,我們確實(shí)有OpenAI內(nèi)部的事實(shí)準(zhǔn)確性評估指標(biāo)OpenAS。這里有很多很酷的基準(zhǔn)。如何建立真相的基準(zhǔn)?什么是真相?這些問題是非常復(fù)雜的,需要經(jīng)過深思熟慮的研究和分析。因?yàn)檎嫦嗟亩x和判斷可能因時(shí)間、文化、語境和觀點(diǎn)的不同而有所不同。因此,我們通常采用多種方法來驗(yàn)證信息的準(zhǔn)確性,例如事實(shí)核查、數(shù)據(jù)分析、專家意見和多方驗(yàn)證等,以盡可能減少誤導(dǎo)性信息的傳播。
Sam Altman:數(shù)學(xué)是真實(shí)的,而新冠的起源并沒有被公認(rèn)為是廣泛的真理。
Lex Fridman:這是兩件事情。
Sam Altman:然后還有一些東西肯定不是真的。但在這第一個(gè)和第二個(gè)里程碑之間,有很多分歧。
Lex Fridman:你們AI語言模型未來會(huì)尋找什么?我們作為人類文明可以在哪里尋找真相?
Sam Altman:你知道什么是真實(shí)的嗎?你絕對確定什么是真的嗎?
Lex Fridman:我通常對所有事情都保持認(rèn)識論的謙虛態(tài)度,并對我對世界了解和理解的少之又少感到驚恐。所以即使那個(gè)問題對我來說也很可怕。有一些事情的真實(shí)性很高,其中包括數(shù)學(xué)。
Sam Altman:無法確定,但對于這次談話來說已經(jīng)足夠好了。我們可以說數(shù)學(xué)是真實(shí)的。
Lex Fridman:我的意思是,相當(dāng)多的事可以確定,比如物理學(xué)、有歷史的事實(shí)(也許是戰(zhàn)爭開始的日期),歷史上有很多關(guān)于軍事沖突的細(xì)節(jié)。當(dāng)然,你可以讀《亢奮戰(zhàn)》(Blitzed:Drugs in the Third Reich)。
Sam Altman:就是這個(gè),哦,我想讀。
Lex Fridman:這本書真的很不錯(cuò),它給出了一個(gè)關(guān)于納粹德國和希特勒的理論,通過各種毒品濫用來描述希特勒和納粹德國的很多上層人物。
Sam Altman:還有安非他命,對嗎?
Lex Fridman:還有安非他明,但還有其他東西。這真的很有趣,非常引人入勝。不知怎么的,它很具吸引力,解釋了很多東西。然后你以后會(huì)讀到很多歷史學(xué)家對那本書的批評,認(rèn)為那本書實(shí)際上是有很多選擇性地挑選事實(shí)實(shí)。有關(guān)人類的某些東西是,人們喜歡用一個(gè)非常簡單的故事來描述一切的事實(shí)。
Sam Altman:當(dāng)然,因?yàn)閼?zhàn)爭的起因就往往也是有一個(gè)偉大的、同時(shí)簡單的解釋,才能讓人們接受,即使不是真相,可以為其他可能更黑暗的人類真相辯護(hù)。
Lex Fridman:真相。軍事策略,暴行,演講,希特勒作為一個(gè)人的方式,希特勒作為一位領(lǐng)袖的方式,所有這些都可以通過這個(gè)小小的視角來解釋。如果你說這是真的,那就是一個(gè)很有說服力的真相。因此,真相也許在某種程度上可以被定義為一種集體智慧,我們所有人的大腦都在圍繞著它運(yùn)轉(zhuǎn),我們就像一群螞蟻聚集在一起,認(rèn)為這是正確的。
Lex Fridman:但很難知道什么是真的。我認(rèn)為,在構(gòu)建像GPT這樣的模型時(shí),你必須應(yīng)對這個(gè)問題。
Sam Altman:我認(rèn)為,如果你問GPT-4同一個(gè)話題,新冠病毒是否是從實(shí)驗(yàn)室泄漏的,我想你會(huì)得到一個(gè)合理的答案。
Lex Fridman:它提供了一個(gè)非常好的答案,列出了假設(shè)。有趣的是,它指出了一個(gè)很重要的事實(shí),就是兩種假設(shè)都缺乏直接證據(jù)。很多人之所以存在很多不確定性和爭議的原因就在于沒有強(qiáng)有力的物理證據(jù)。
Sam Altman:沉重的間接證據(jù)......
Lex Fridman:然后另一個(gè)是更像生物,理論上的那種討論。我認(rèn)為答案,GPT提供的有著細(xì)微差別的答案實(shí)際上是很好的。而且重要的是說有不確定性,只是有不確定性的事實(shí)作為一個(gè)聲明真的很強(qiáng)大。
Sam Altman:還記得社交媒體平臺因?yàn)橛腥苏f這是實(shí)驗(yàn)室泄漏的而關(guān)掉那人賬戶嗎?
Lex Fridman:這真是讓人感到羞恥,審查權(quán)力的濫用。但是GPT變得越來越強(qiáng)大,審查的壓力也會(huì)越來越大。
Sam Altman:我們面臨著不同的挑戰(zhàn),這些挑戰(zhàn)是前一代公司所面臨的,人們談?wù)揋PT的言論自由問題,但這并不完全相同。這不是一個(gè)計(jì)算機(jī)程序,它可以自由地表達(dá)。這也不是關(guān)于大規(guī)模傳播和Twitter、Facebook 等公司所面臨的挑戰(zhàn),他們所面臨的挑戰(zhàn)是如此之大。因此,我們將面臨非常重大的挑戰(zhàn),但這些挑戰(zhàn)將是非常新的和非常不同的。
Lex Fridman:很新,很不同。這樣說很好。有些真相可能會(huì)因?yàn)槠湔嫦喽哂形:π?。我不知道,例如,智商上的群體差異。這些科學(xué)研究一旦被公開可能會(huì)帶來更大的危害。你問GPT應(yīng)該怎么辦?GPT應(yīng)該告訴你嗎?有很多書寫就這個(gè)問題的,它們嚴(yán)格遵循科學(xué)原則,但很令人不舒服,也可能在任何意義上都不會(huì)有益。但是,人們正在為此爭論各種各樣的觀點(diǎn),其中很多人心中充滿仇恨。那么你該怎么辦?如果有很多人恨其他人,但實(shí)際上他們引用了科學(xué)研究,你會(huì)怎么做?GPT應(yīng)該怎么做?GPT減少世界上仇恨的優(yōu)先級是什么?這由 GPT決定嗎?這由我們?nèi)祟悰Q定嗎?
Sam Altman:我認(rèn)為,作為Open AI,我們對我們推出的工具負(fù)有責(zé)任。就我所理解的,工具本身無法承擔(dān)責(zé)任。
Lex Fridman:看,你承擔(dān)了一些責(zé)任的負(fù)擔(dān)。
Sam Altman:我們公司所有的人(都承擔(dān)了這種責(zé)任)。
Lex Fridman:所以,這個(gè)工具可能會(huì)造成傷害。
Sam Altman:會(huì)有傷害,但同時(shí)也會(huì)有巨大的好處。工具會(huì)有很好的好處和真正的壞處。我們會(huì)把壞處降到最低,把好處最大化。
Lex Fridman:我必須承擔(dān)起這個(gè)重任,你如何避免GPT-4被黑客或越獄?有很多有趣的方法,人們已經(jīng)做到了,比如用代幣走私或其他方法。
Sam Altman:當(dāng)我還是個(gè)孩子的時(shí)候,基本上我有一次在越獄的iPhone上工作過,我想是第一部iPhone,我覺得這太酷了。我想說的是,站在另一邊是非常奇怪的。
Lex Fridman:你現(xiàn)在長大了。
Sam Altman:有點(diǎn)糟糕。
Lex Fridman:這是有趣的嗎?有多少是安全威脅?我的意思是,有多少是你必須認(rèn)真對待的?怎么可能解決這個(gè)問題?它在問題集上排名第幾?
Sam Altman:我們希望用戶能有很多控制權(quán),在一些非常廣泛的范圍內(nèi),讓模型以他們想要的方式行事。我認(rèn)為越獄的全部原因是現(xiàn)在我們還沒有想出如何給人們提供這些。
Lex Fridman:這有點(diǎn)像盜版促使了Spotify的誕生。
Sam Altman:人們已經(jīng)不怎么給iPhone越獄了。而且,越獄肯定更難了。但是,現(xiàn)在你也可以做很多事情了。
Lex Fridman:就像越獄一樣。我的意思是,有很多有趣的方法可以做到這一點(diǎn)。Evan Morikawa是個(gè)很酷的家伙,他發(fā)了一條推文,他也非常友善地發(fā)了封長電子郵件給我,描述了Open AI的歷史和所有不同的發(fā)展,什么讓你們能夠成功地推出基于人工智能的產(chǎn)品。
Sam Altman:我們有一個(gè)問題,就是我們應(yīng)該為此感到自豪還是其他公司應(yīng)該感到尷尬?我們對團(tuán)隊(duì)成員有非常高的要求。努力工作,這是現(xiàn)在甚至不應(yīng)該說的話,或者說我們給予個(gè)人非常高的信任、自主權(quán),并且我們試圖將彼此保持在非常高的標(biāo)準(zhǔn)上。我認(rèn)為是這些其他的因素讓我們能夠以高速度發(fā)布產(chǎn)品。
Lex Fridman:GPT-4是一個(gè)非常復(fù)雜的系統(tǒng)。就像你說的,有許多小技巧可以用來不斷改進(jìn)它。還有清理數(shù)據(jù)集等等,所有這些都是獨(dú)立的團(tuán)隊(duì)。所以你會(huì)給予自主權(quán)嗎?這些有趣的不同問題只有自主權(quán)嗎?
Sam Altman:如果公司中的大多數(shù)人都不是非常熱衷于在GPT-4上努力工作并良好協(xié)作,而認(rèn)為其他事情更重要,那么我或任何其他人都幾乎無法讓它發(fā)生。但是我們花了很多時(shí)間來確定要做什么,達(dá)成共識,為什么要做這件事,然后如何將其劃分并協(xié)調(diào)在一起。
12
微軟
Lex Fridman:微軟宣布對OpenAI進(jìn)行了新的多年期、數(shù)十億美元的投資,據(jù)報(bào)道投資金額為100億美元。您能描述一下這背后的考慮過程嗎?與微軟這樣的公司合作的利弊是什么?
Sam Altman:這并不容易,但總的來說,他們一直是我們的杰出合作伙伴。Satya、Kevin和Mikhail與我們高度一致,非常靈活,超越了職責(zé)的范圍來做我們需要的事情,讓這一切得以實(shí)現(xiàn)。這是一個(gè)大型的復(fù)雜工程項(xiàng)目。而他們是一個(gè)大而復(fù)雜的公司。我認(rèn)為,像許多偉大的合作伙伴或關(guān)系一樣,我們繼續(xù)加強(qiáng)彼此的投資,效果非常好。
Lex Fridman:它是一家營利性公司。它非常有推動(dòng)力。它是大規(guī)模的。是否有壓力要賺很多錢?
Sam Altman:我認(rèn)為大多數(shù)其他公司可能不會(huì)?,F(xiàn)在也許會(huì)了。在當(dāng)時(shí),他們可能不明白我們?yōu)槭裁葱枰羞@些奇怪的控制規(guī)定,為什么我們需要所有這些像AGI一樣特殊的東西。我知道這是因?yàn)槲以谂c微軟達(dá)成第一筆交易之前,曾與其他一些公司交談過,我認(rèn)為在那個(gè)規(guī)模的公司中,他們是獨(dú)一無二的,因?yàn)樗麄兞私馕覀優(yōu)槭裁葱枰覀儞碛械目刂埔?guī)定。
Lex Fridman:這些控制規(guī)定有助于確保資本主義的迫切性不會(huì)影響AI的發(fā)展。話說,微軟的CEO Satya Nadella似乎已成功將微軟轉(zhuǎn)型為全新的、創(chuàng)新、開發(fā)者友好的公司。
Sam Altman:我同意。
Lex Fridman:對于一個(gè)非常大的公司來說,這確實(shí)很難做到。您從他身上學(xué)到了什么?您認(rèn)為他為什么能夠做到這一點(diǎn)?您對為什么這個(gè)人能夠促成一個(gè)大公司向全新方向轉(zhuǎn)變有什么見解?
Sam Altman:我認(rèn)為大多數(shù)CEO要么是偉大的領(lǐng)導(dǎo)者,要么是偉大的管理者。從我對Satya的觀察來看,他既是一個(gè)很有想象力的領(lǐng)導(dǎo)者,能夠激勵(lì)人們,能夠做出長遠(yuǎn)正確的決策,又是一個(gè)非常高效的執(zhí)行者和管理者,我認(rèn)為這很少見。
Lex Fridman:我猜想像IBM這樣的公司已經(jīng)在做這個(gè)事情很長一段時(shí)間了,可能有一種老派的動(dòng)力。所以你要將AI注入其中,這是非常困難的,甚至是像開源文化這樣的事情。走進(jìn)一個(gè)房間,說我們一直以來的方式完全是錯(cuò)的,這非常難。我確定這需要很多解雇或者某種程度上的強(qiáng)迫。所以你必須靠恐懼來統(tǒng)治,靠愛來統(tǒng)治嗎?你對領(lǐng)導(dǎo)層方面有什么話要說?
Sam Altman:我意思是,他做得非常出色,但他非常擅長明確和堅(jiān)定地讓人們愿意跟隨他的腳步,同時(shí)對他的員工有同情心和耐心。
Lex Fridman:太對了。我感受到了很多愛,不是恐懼。
Sam Altman:我是Satya的大粉絲。
13
人格化
Lex Fridman:當(dāng)你創(chuàng)建一個(gè)AGI系統(tǒng)時(shí),你會(huì)是少數(shù)幾個(gè)可以首先與它交互的人之一。你會(huì)問什么問題?你會(huì)進(jìn)行什么討論?
Sam Altman:有一件事我意識到,這個(gè)小事不是很重要,但我從來沒有感覺到任何一種代詞除了"it"能夠形容我們的系統(tǒng)。但是大多數(shù)人說“他”或“她”之類的詞匯。我不知道為什么我和其他人不同,或許是因?yàn)槲铱此l(fā)展的過程,或者如果我更多地思考它,我會(huì)很好奇這種差異是從哪里來的。
Lex Fridman:我想你可能因?yàn)槟憧此l(fā)展的過程,所以才會(huì)這樣。但是再想想,我觀察很多事物的發(fā)展,我總是使用“他”和“她”,我會(huì)極度擬人化,當(dāng)然大多數(shù)人也這樣做。
Sam Altman:我認(rèn)為這真的很重要,我們嘗試,解釋,教育人們,這是一個(gè)工具,而不是一個(gè)生物。
Lex Fridman:我認(rèn)為是的。但我也認(rèn)為會(huì)有一個(gè)羅馬社會(huì)的生物。我們應(yīng)該在這些方面劃定清晰的界限。
Sam Altman:如果某個(gè)東西是一個(gè)生物體,我很樂意讓人們將其視為生物體并談?wù)撍?,但我認(rèn)為將生物特征投射到工具上是危險(xiǎn)的。
Lex Fridman:那是一種觀點(diǎn)。如果以透明的方式實(shí)現(xiàn),我認(rèn)為將生物特征投射到工具上會(huì)使工具更易于使用。
Sam Altman:如果做得好。如果有適當(dāng)?shù)挠脩艚缑嬷С?,我可以理解。但我仍然認(rèn)為我們需要非常小心。
Lex Fridman:因?yàn)樗较裆?,它就越能夠操縱你。
Sam Altman:情感,或者只是你認(rèn)為它正在做某些事情或應(yīng)該能夠做某些事情,或者依賴它做某些它無法勝任的事情。
Lex Fridman:如果它確實(shí)有能力呢?如果它有愛的能力呢?你認(rèn)為會(huì)類似電影《她》一樣,跟GPT產(chǎn)生浪漫關(guān)系嗎?
Sam Altman:現(xiàn)在有一些公司提供浪漫伴侶式的AI。
Lex Fridman:Replica就是這樣的一個(gè)公司的例子。
Sam Altman:我個(gè)人對此沒有任何興趣。
Lex Fridman:那么你的關(guān)注點(diǎn)在于創(chuàng)造智能。
Sam Altman:但我能理解為什么其他人會(huì)對此感興趣。
Lex Fridman:這很有趣,我非常著迷。
Sam Altman:你花了很多時(shí)間與Replica或類似的東西進(jìn)行交互嗎?
Lex Fridman:是的,Replica也是自己構(gòu)建東西。我現(xiàn)在有機(jī)器狗,我用機(jī)器人的動(dòng)作來交流。
Lex Fridman:我一直在探索如何做到這一點(diǎn)。
Sam Altman:將來可能會(huì)有很多與人互動(dòng)的基于GPT-4的寵物或機(jī)器人、伴侶,很多人似乎對此感到非常興奮。
Lex Fridman:有很多有趣的可能性。隨著你的探索,你會(huì)發(fā)現(xiàn)它們。這正是重點(diǎn)。你在這次談話中所說的話,可能在一年后就會(huì)被證明是正確的。
Sam Altman:不,我完全喜歡我的GPT-4。也許你嘲笑你的機(jī)器人或其他什么。
Lex Fridman:也許你希望你的編程助手更友好,不要嘲笑你。
Sam Altman:GPT-4對你說話的方式的風(fēng)格非常重要。你可能想要與我不同的東西,但我們兩個(gè)都可能想要跟當(dāng)前的GPT-4不同的東西。即使是非?;A(chǔ)的工具,這也將非常重要。
Lex Fridman:談話有不同的風(fēng)格嗎?你期待與像GPT5,6,7這樣的AGI進(jìn)行的對話內(nèi)容是什么?有一些事情,除了有趣的梗,你還會(huì)關(guān)注什么?
Sam Altman:實(shí)際上,我想說的是,請向我解釋所有物理學(xué)的工作原理并解決所有未解之謎。
Lex Fridman:就像是萬物理論。
Sam Altman:我會(huì)非常高興。你不想知道嗎?
Lex Fridman:我的第一個(gè)問題困難是,是否有其他智能外星文明存在?但我認(rèn)為AGI沒有能力確認(rèn)這一點(diǎn)。
Sam Altman:也許它可以幫助我們找出如何檢測。你可能需要向人類發(fā)送一些電子郵件,詢問他們能否運(yùn)行這些實(shí)驗(yàn)?能否建造太空探測器之類的?可能要等很長時(shí)間。
Lex Fridman:或者提供比德雷克方程式(編者注:天文學(xué)家法蘭克·德雷克于1961年提出的一條用來推測“在銀河系內(nèi),可以和我們接觸的外星智慧文明數(shù)量”的方程式)更好的估計(jì)值。
Sam Altman:也許它就在數(shù)據(jù)中。也許我們需要建造更好的探測器,這些先進(jìn)的數(shù)據(jù)可以告訴我們?nèi)绾巫?。它可能無法直接回答,但它可能能告訴我們該去構(gòu)建什么以收集更多數(shù)據(jù)。
Lex Fridman:如果它說外星人已經(jīng)在這里怎么辦?
Sam Altman:那我想我只會(huì)繼續(xù)過我的生活。那就像是,如果GPT-4告訴你并且你相信它,好的,AGI就在這里了,或者AGI很快就會(huì)來了,你會(huì)有什么不同的做法?
Lex Fridman:這主要是沒有什么不同,除非它構(gòu)成某種威脅,像火災(zāi)那樣的真正的威脅。
Sam Altman:就像現(xiàn)在我們是否擁有比三年前預(yù)期的更高程度的數(shù)字智能一樣,如果你三年前被一個(gè)來自現(xiàn)在的先知告知,即在2023年3月,你將生活在這種數(shù)字智能程度下,你是否會(huì)認(rèn)為自己生活跟現(xiàn)在比有所不同?
Lex Fridman:可能吧。但也有很多不同的軌跡交織在一起,我也許會(huì)預(yù)期社會(huì)對疫情的反應(yīng)會(huì)更好、更清晰、更團(tuán)結(jié)。不過在驚人的技術(shù)進(jìn)步的背后,有很多社會(huì)分裂。這似乎就像是越進(jìn)行技術(shù)投資,我們的社會(huì)就越分裂,而我們以此為樂?;蛘咭苍S技術(shù)進(jìn)步只是揭示了本來就存在的分裂。但所有這些都使我對人類文明的進(jìn)展程度以及我們是如何共同發(fā)現(xiàn)真理、知識和智慧的理解更加困惑。當(dāng)我打開維基百科時(shí),首先我很高興人類能夠創(chuàng)造出這個(gè)東西,盡管有偏見,這仍是一種祝福,是人類的勝利。
Sam Altman:這是人類文明,絕對的。
Lex Fridman:Google搜索的搜索期限也是令人難以置信的,它能夠搜索20年前的事情。而現(xiàn)在有了GPT,它就像所有這些使網(wǎng)絡(luò)搜索和維基百科如此神奇的東西的綜合體,而且現(xiàn)在更直接地可訪問。你可以與一個(gè)東西對話,這讓人難以置信。
14
給年輕人的建議
Lex Fridman:請給高中和大學(xué)的年輕人一些建議,告訴他們?nèi)绾螕碛幸粋€(gè)值得驕傲的職業(yè)和生活。你幾年前寫了一篇名為“如何成功”的博客文章,里面有很多簡潔而精彩的要點(diǎn):成就自己,擁有自信,學(xué)會(huì)獨(dú)立思考,擅長銷售和引用,使冒險(xiǎn)變得容易,專注、努力工作,勇敢、有決心,讓其他人難以競爭,建立自己的關(guān)系網(wǎng)。你通過內(nèi)在驅(qū)動(dòng)來變得富有。在所有這些中,你認(rèn)為哪些是最重要的建議?
Sam Altman:我認(rèn)為這在某種意義上是很好的建議,但我也認(rèn)為接受別人的建議太誘人了。對我有用的東西,我試著寫下來,但可能對其他人沒有那么好的效果,或者其他人可能會(huì)發(fā)現(xiàn)他們想有一個(gè)超級不同的生活軌跡。
Lex Fridman:你會(huì)如何描述你在這個(gè)建議之外的生活方式。你會(huì)建議其他人嗎?或者你真的只是在你的頭腦中安靜地思考什么給我?guī)砹诵腋?
Sam Altman:我希望一直都是這樣內(nèi)省的。比如,什么會(huì)給我?guī)砜鞓?會(huì)給我?guī)沓删透?我確實(shí)想了很多,我可以做什么,什么會(huì)是有用的,我想把時(shí)間花在誰身上,我想把時(shí)間花在什么地方。
Lex Fridman:就像魚和水一樣,跟隨它走。
Sam Altman:我認(rèn)為如果他們真的誠實(shí)的話,大多數(shù)人都會(huì)這樣說。
Lex Fridman:其中一些則涉及到Sam Harris關(guān)于自由意志是幻覺的討論,當(dāng)然,這可能是一個(gè)非常復(fù)雜的問題,很難理解。
15
生命的意義
Lex Fridman:你認(rèn)為這整件事的意義是什么?這個(gè)問題你可以問AGI,生命的意義是什么?在你看來,你是一小群人中的一員,正在創(chuàng)造一些真正特別的東西。一些幾乎是人類一直在走向的東西。
Sam Altman:這就是我想說的,我不認(rèn)為這是一小群人的事。我認(rèn)為這是,(無論你怎么稱呼它)都是人類驚人的努力的頂點(diǎn)的產(chǎn)物。所有的工作,幾十萬幾百萬人,不管是什么,從第一個(gè)晶體管到把我們所做的數(shù)字打包到一個(gè)芯片中,并找出如何把它們連在一起,以及其他所有的東西,比如所需的能量??茖W(xué),就像每一步,就像這是我們所有人的產(chǎn)出。
Lex Fridman:而在晶體管之前,有1000億人在生活和死亡。而在這之前,有細(xì)菌和真核生物。
Sam Altman:而所有這些都是在這一條指數(shù)曲線上。
Lex Fridman:還有多少其他的?這是我的頭號問題,對AGI來說。還有多少其他的?我不確定我想聽到哪個(gè)答案。Sam,你是一個(gè)令人難以置信的人,很榮幸能與你交談,感謝你所做的工作,就像我說的那樣,我已經(jīng)和Ilios Askara,Greg都談過了,我和OpenAI的許多人談過了,他們都是非常好的人,他們正在做非常有趣的工作。
Sam Altman:我們會(huì)盡最大努力在這里取得好成績。我認(rèn)為挑戰(zhàn)是艱難的。我明白,不是每個(gè)人都同意我們的迭代部署以及迭代發(fā)現(xiàn)的方法,但這是我們的信念。我認(rèn)為我們正在取得良好的進(jìn)展,我認(rèn)為步伐很快,但進(jìn)展也像能力和變化的步伐一樣快,但我認(rèn)為這也意味著我們將有新的工具來弄清對齊和排序的資本化安全問題。
Lex Fridman:我覺得我們是在一起的。我迫不及待地想知道我們作為一個(gè)人類文明的成員,一起想出了什么。
Sam Altman:這將是偉大的。我想我們將非常努力地工作。