他山之石|“瀏覽器之父”馬克·安德森:為什么AI將拯救世界
Marc Andreessen是風(fēng)險(xiǎn)投資公司Andreessen Horowitz的聯(lián)合創(chuàng)始人兼合伙人。他是一位創(chuàng)新者和創(chuàng)造者,是為數(shù)不多的開創(chuàng)超過十億人使用的軟件類別的人之一(網(wǎng)景瀏覽器),也是為數(shù)不多的建立數(shù)十億美元公司的人之一,被譽(yù)為“瀏覽器之父”。
本文翻譯自Why AI Will Save the World | Andreessen Horowitz (a16z.com)
人工智能的時(shí)代已經(jīng)到來,“大男孩們”(指對新科技一知半解的人)被嚇壞了。
幸運(yùn)的是,我在這里帶來了好消息:人工智能不會(huì)摧毀世界,事實(shí)上可能會(huì)拯救它。
首先,簡要描述一下什么是人工智能:數(shù)學(xué)和軟件代碼的應(yīng)用,教計(jì)算機(jī)如何以類似于人們的方式理解、綜合和生成知識(shí)。人工智能是一種計(jì)算機(jī)程序,就像任何其他程序一樣——它運(yùn)行、接受輸入、處理和生成輸出。人工智能的輸出在廣泛的領(lǐng)域都很有用,從編碼到醫(yī)學(xué),從法律到創(chuàng)意藝術(shù)。它由人擁有并由人控制,就像任何其他技術(shù)一樣。
對人工智能不是什么的簡短描述:殺手級(jí)軟件和機(jī)器人將栩栩如生,決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。
對人工智能可能是什么的更簡短的描述:一種讓我們關(guān)心的一切變得更好的方法。

為什么人工智能可以讓我們關(guān)心的一切變得更好
幾十年來和數(shù)千項(xiàng)研究中,社會(huì)科學(xué)最有效的核心結(jié)論是,人類智力使非常廣泛的生活結(jié)果變得更好。更聰明的人在幾乎所有活動(dòng)領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成績、工作表現(xiàn)、職業(yè)狀況、收入、創(chuàng)造力、身體健康、長壽、學(xué)習(xí)新技能、管理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、解決沖突、閱讀理解、財(cái)務(wù)決策、理解他人的觀點(diǎn)、創(chuàng)造性藝術(shù)、育兒結(jié)果和生活滿意度。
此外,人類智能是我們幾千年來用來創(chuàng)造我們今天生活的世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、倫理、道德。如果沒有在所有這些領(lǐng)域應(yīng)用情報(bào),我們?nèi)詫⑸钤谀辔堇?,勉?qiáng)維持生計(jì)的農(nóng)業(yè)。相反,在過去的10年里,我們利用我們的智慧將我們的生活水平提高了4000倍。
人工智能為我們提供的是深刻增強(qiáng)人類智能的機(jī)會(huì),使所有這些智能成果——以及許多其他成果,從創(chuàng)造新藥到解決氣候變化的方法,再到到達(dá)恒星的技術(shù)——從這里開始變得更好。
人工智能對人類智能的增強(qiáng)已經(jīng)開始——人工智能已經(jīng)以多種計(jì)算機(jī)控制系統(tǒng)的形式出現(xiàn)在我們身邊,現(xiàn)在正在通過像 ChatGPT 這樣的人工智能大語言模型迅速升級(jí),并且會(huì)從這里迅速加速——如果我們允許的話。
在人工智能的新時(shí)代:
每個(gè)孩子都會(huì)有一個(gè)人工智能導(dǎo)師,他有無限的耐心,無限的同情心,無限的知識(shí),無限的幫助。AI導(dǎo)師將陪伴在每個(gè)孩子成長的每一步,用無限愛的機(jī)器版本幫助他們最大限度地發(fā)揮自己的潛力。
每個(gè)人都會(huì)有一個(gè)人工智能助理/教練/導(dǎo)師/培訓(xùn)師/顧問/治療師,他有無限的耐心、無限的同情心、無限的知識(shí)、無限的幫助。人工智能助手將在生活中的所有機(jī)遇和挑戰(zhàn)中出現(xiàn),最大限度地提高每個(gè)人的成果。
每個(gè)科學(xué)家都將有一個(gè)人工智能助手/合作者/合作伙伴,這將大大擴(kuò)展他們的科學(xué)研究和成就范圍。每個(gè)藝術(shù)家,每個(gè)工程師,每個(gè)商人,每個(gè)醫(yī)生,每個(gè)護(hù)理人員在他們的世界里都會(huì)有同樣的東西。
每個(gè)領(lǐng)導(dǎo)者——首席執(zhí)行官、政府官員、非營利組織總裁、體育教練、教師——都會(huì)有同樣的東西。領(lǐng)導(dǎo)者在他們所領(lǐng)導(dǎo)的人中做出更好的決策的放大效應(yīng)是巨大的,所以這種智力增強(qiáng)可能是最重要的。
整個(gè)經(jīng)濟(jì)的生產(chǎn)率增長將急劇加速,推動(dòng)經(jīng)濟(jì)增長、創(chuàng)造新產(chǎn)業(yè)、創(chuàng)造新就業(yè)機(jī)會(huì)和工資增長,并導(dǎo)致全球物質(zhì)繁榮的新時(shí)代。
科學(xué)突破、新技術(shù)和藥物將大大擴(kuò)展,因?yàn)槿斯ぶ悄軐椭覀冞M(jìn)一步解碼自然法則,并為我們的利益收獲它們。
創(chuàng)意藝術(shù)將進(jìn)入一個(gè)黃金時(shí)代,因?yàn)槿斯ぶ悄茉鰪?qiáng)的藝術(shù)家、音樂家、作家和電影制作人比以往任何時(shí)候都更快、更大規(guī)模地實(shí)現(xiàn)他們的愿景。
我甚至認(rèn)為人工智能將通過大幅降低戰(zhàn)時(shí)死亡率來改善戰(zhàn)爭。每場戰(zhàn)爭的特點(diǎn)都是在巨大的壓力下做出可怕的決定,而非常有限的人類領(lǐng)導(dǎo)人卻在信息極其有限的情況下做出可怕的決定?,F(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將擁有人工智能顧問,幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險(xiǎn)、錯(cuò)誤和不必要的流血事件。
簡而言之,人們今天用他們的自然智能所做的任何事情都可以通過人工智能做得更好,我們將能夠接受沒有人工智能就無法應(yīng)對的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行。
這不僅僅是關(guān)于智力!也許人工智能最被低估的品質(zhì)是它的人性化程度。人工智能藝術(shù)為缺乏技術(shù)技能的人提供了創(chuàng)作和分享其藝術(shù)創(chuàng)意的自由。與善解人意的AI朋友交談確實(shí)可以提高他們應(yīng)對逆境的能力。人工智能醫(yī)療聊天機(jī)器人已經(jīng)比人類同行更具同理心。無限耐心和同情心的人工智能不會(huì)讓世界變得更嚴(yán)酷、更機(jī)械,而是讓世界變得更溫暖、更美好。
這里的風(fēng)險(xiǎn)很高。機(jī)會(huì)是深遠(yuǎn)的。人工智能很可能是我們文明創(chuàng)造的最重要,也是最好的東西,當(dāng)然可以與電力和微芯片相提并論,甚至可能超越這些。
人工智能的發(fā)展和擴(kuò)散——遠(yuǎn)非我們應(yīng)該擔(dān)心的風(fēng)險(xiǎn)——是我們對自己、對孩子和未來的道德義務(wù)。
我們應(yīng)該生活在一個(gè)擁有人工智能的更美好的世界里,現(xiàn)在我們可以了。

那么為什么會(huì)感到恐慌呢?
與這種積極的觀點(diǎn)相反,關(guān)于人工智能的公眾對話目前充滿了歇斯底里的恐懼和偏執(zhí)。
我們聽到有人說,人工智能會(huì)以不同的方式殺死我們所有人,毀掉我們的社會(huì),奪走我們所有的工作,造成嚴(yán)重的不平等,并使壞人能夠做可怕的事情。
是什么解釋了從近乎烏托邦到可怕的反烏托邦的潛在結(jié)果的分歧?
從歷史上看,每一項(xiàng)重要的新技術(shù),從電燈到汽車,從收音機(jī)到互聯(lián)網(wǎng),都引發(fā)了道德恐慌——一種社會(huì)傳染病,讓人們相信新技術(shù)將摧毀世界,或社會(huì),或兩者兼而有之。悲觀主義者檔案館(Pessimists Archive)的優(yōu)秀人士幾十年來記錄了這些由技術(shù)驅(qū)動(dòng)的道德恐慌;他們的歷史使這種模式生動(dòng)清晰。事實(shí)證明,目前的恐慌甚至不是人工智能的第一次。
現(xiàn)在,可以肯定的是,許多新技術(shù)導(dǎo)致了糟糕的結(jié)果——通常是同樣的技術(shù),否則對我們的福利非常有益。因此,并不是說道德恐慌的存在就意味著沒有什么可擔(dān)心的。
但道德恐慌本質(zhì)上是非理性的——它把可能合理的擔(dān)憂膨脹成歇斯底里的程度,具有諷刺意味的是,這使得面對真正嚴(yán)重的擔(dān)憂變得更加困難。
哇,我們現(xiàn)在對人工智能有一種全面的道德恐慌。
這種道德恐慌已經(jīng)被各種參與者用作要求采取政策行動(dòng)的動(dòng)力——新的人工智能限制、法規(guī)和法律。這些行為者正在就人工智能的危險(xiǎn)發(fā)表極其戲劇性的公開聲明——以助長并進(jìn)一步煽動(dòng)道德恐慌——都以無私的公共利益捍衛(wèi)者自居。
但是他們呢?
他們是對還是錯(cuò)?

人工智能的浸信會(huì)和走私者
經(jīng)濟(jì)學(xué)家在這種改革運(yùn)動(dòng)中觀察到了一個(gè)長期的模式。像這樣的運(yùn)動(dòng)中的參與者分為兩類 - “浸信會(huì)”和“走私者” - 借鑒了1920年代美國禁酒的歷史例子:
“浸信會(huì)”是真正的信徒社會(huì)改革者,他們有理由——如果不是理性地——深刻地、情感地感受到,需要新的限制、法規(guī)和法律來防止社會(huì)災(zāi)難。 對于禁酒令,這些演員往往是虔誠的基督徒,他們認(rèn)為酒精正在摧毀社會(huì)的道德結(jié)構(gòu)。 對于人工智能風(fēng)險(xiǎn),這些參與者是人工智能存在一種或另一種存在風(fēng)險(xiǎn)的忠實(shí)信徒——把他們綁在測謊儀上,他們是認(rèn)真的。
“走私者”是自私自利的機(jī)會(huì)主義者,他們通過施加新的限制、法規(guī)和法律來使他們與競爭對手隔離開來,從而獲得經(jīng)濟(jì)利益。 對于禁酒令,這些是名副其實(shí)的走私者,他們在禁止合法銷售酒精時(shí)向美國人出售非法酒精而發(fā)了財(cái)。 對于人工智能風(fēng)險(xiǎn),如果建立監(jiān)管壁壘,形成政府支持的人工智能供應(yīng)商卡特爾,免受新創(chuàng)業(yè)和開源競爭的影響,這些首席執(zhí)行官將賺更多的錢 - “太大而不能倒閉”銀行的軟件版本。
憤世嫉俗的人會(huì)認(rèn)為,一些明顯的浸信會(huì)教徒也是走私者——特別是那些被他們的大學(xué)、智庫、活動(dòng)家團(tuán)體和媒體付錢攻擊人工智能的人。如果你拿到薪水或獲得助長人工智能恐慌的補(bǔ)助金......你可能是一個(gè)走私者。
走私者的問題在于他們贏了。浸信會(huì)是天真的理論家,走私者是憤世嫉俗的經(jīng)營者,所以像這樣的改革運(yùn)動(dòng)的結(jié)果往往是走私者得到了他們想要的東西——監(jiān)管俘虜、與競爭絕緣、卡特爾的形成——浸信會(huì)想知道他們的社會(huì)進(jìn)步動(dòng)力在哪里出了問題。
我們剛剛經(jīng)歷了一個(gè)驚人的例子——2008年全球金融危機(jī)后的銀行改革。浸信會(huì)告訴我們,我們需要新的法律法規(guī)來打破“太大而不能倒閉”的銀行,以防止這樣的危機(jī)再次發(fā)生。因此,國會(huì)通過了2010年的《多德-弗蘭克法案》(Dodd-Frank Act of 2008),該法案被宣傳為滿足浸信會(huì)的目標(biāo),但實(shí)際上卻被走私者——大銀行——所籠絡(luò)。結(jié)果是,<>年“太大而不能倒閉”的銀行現(xiàn)在要大得多。
因此,在實(shí)踐中,即使浸信會(huì)是真實(shí)的——即使浸信會(huì)是對的——他們?也會(huì)縱和貪婪的走私者用作掩護(hù),以謀取利益。
這就是目前人工智能監(jiān)管過程中正在發(fā)生的事情。
然而,僅僅確定演員并指責(zé)他們的動(dòng)機(jī)是不夠的。我們應(yīng)該考慮浸信會(huì)和走私者的論點(diǎn)。

AI風(fēng)險(xiǎn)#1:AI會(huì)殺死我們所有人嗎?
第一個(gè)也是最初的人工智能厄運(yùn)風(fēng)險(xiǎn)是,人工智能將決定從字面上殺死人類。
我們自己創(chuàng)造的技術(shù)會(huì)興起并摧毀我們的恐懼深深地植根于我們的文化中。希臘人在普羅米修斯神話中表達(dá)了這種恐懼——普羅米修斯將火的破壞力,以及更普遍的技術(shù)(“技術(shù)”)帶給人類,為此普羅米修斯被眾神判處永久折磨。后來,瑪麗·雪萊(Mary Shelley)在她的小說《弗蘭肯斯坦》(Frankenstein)或《現(xiàn)代普羅米修斯》(The Modern Prometheus)中為我們現(xiàn)代人提供了我們自己版本的這個(gè)神話,其中我們開發(fā)了永生的技術(shù),然后它崛起并試圖摧毀我們。當(dāng)然,如果沒有詹姆斯·卡梅隆(James Cameron)的《終結(jié)者》(Terminator)電影中閃閃發(fā)光的紅眼殺手機(jī)器人的靜止圖像,任何AI恐慌報(bào)紙的故事都是不完整的。
這個(gè)神話的假定進(jìn)化目的是激勵(lì)我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險(xiǎn)——畢竟,火確實(shí)可以用來燒毀整個(gè)城市。但是,正如火也是現(xiàn)代文明的基礎(chǔ),用來讓我們在一個(gè)寒冷和充滿敵意的世界中保持溫暖和安全一樣,這個(gè)神話忽略了大多數(shù)人更大的好處 - 所有?– 新技術(shù),在實(shí)踐中煽動(dòng)破壞性情緒,而不是理性分析。僅僅因?yàn)榍艾F(xiàn)代人像這樣驚慌失措并不意味著我們必須這樣做;我們可以應(yīng)用理性來代替。
我的觀點(diǎn)是,人工智能將決定真正殺死人類的想法是一個(gè)深刻的類別錯(cuò)誤。人工智能不是一種經(jīng)過數(shù)十億年進(jìn)化的生物,它像動(dòng)物和我們一樣,參與適者生存的戰(zhàn)斗。它是數(shù)學(xué) - 代碼 - 計(jì)算機(jī),由人建造,由人擁有,由人使用,由人控制。認(rèn)為它會(huì)在某個(gè)時(shí)候發(fā)展出自己的思想,并決定它有動(dòng)機(jī)導(dǎo)致它試圖殺死我們的想法是一種迷信的揮手。
簡而言之,人工智能不想要,它沒有目標(biāo),它不想殺死你,因?yàn)樗鼪]有生命。人工智能是一臺(tái)機(jī)器——不會(huì)像你的烤面包機(jī)那樣活躍起來。
現(xiàn)在,很明顯,有殺手級(jí)人工智能的真正信徒 - 浸信會(huì) - 他們因其可怕的警告而突然獲得了大量的媒體報(bào)道,其中一些人聲稱已經(jīng)研究了這個(gè)話題幾十年,并說他們現(xiàn)在被他們學(xué)到的東西嚇得失去理智。其中一些真正的信徒甚至是這項(xiàng)技術(shù)的實(shí)際創(chuàng)新者。這些參與者主張對人工智能進(jìn)行各種奇怪和極端的限制,從禁止人工智能開發(fā),一直到對數(shù)據(jù)中心的軍事空襲和核戰(zhàn)爭。他們認(rèn)為,因?yàn)橄裎疫@樣的人不能排除人工智能未來的災(zāi)難性后果,我們必須采取預(yù)防措施,可能需要大量的身體暴力和死亡,以防止?jié)撛诘纳骘L(fēng)險(xiǎn)。
我的回答是,他們的立場是不科學(xué)的——什么是可檢驗(yàn)的假設(shè)?什么會(huì)證偽這個(gè)假設(shè)?我們怎么知道我們什么時(shí)候進(jìn)入危險(xiǎn)區(qū)域? 這些問題除了“你無法證明它不會(huì)發(fā)生!事實(shí)上,這些浸信會(huì)教徒的立場是如此不科學(xué)和極端——一種關(guān)于數(shù)學(xué)和代碼的陰謀論——并且已經(jīng)在呼吁身體暴力,我會(huì)做一些我通常不會(huì)做的事情,并質(zhì)疑他們的動(dòng)機(jī)。
具體來說,我認(rèn)為有三件事正在發(fā)生:
首先,回想一下,約翰·馮·諾依曼(John Von Neumann)回應(yīng)了羅伯特·奧本海默(Robert Oppenheimer)關(guān)于他制造核武器的角色的著名抨擊 - 這有助于結(jié)束第二次世界大戰(zhàn)并防止第三次世界大戰(zhàn) - “有些人認(rèn)罪是為了聲稱罪惡。一個(gè)人可以聲稱自己的工作的重要性而不聽起來公然自夸的最戲劇性的方式是什么?這解釋了實(shí)際建設(shè)和資助人工智能的浸信會(huì)信徒的言行不匹配——注意他們的行動(dòng),而不是他們的言語。(杜魯門在與奧本海默會(huì)面后更加嚴(yán)厲: “不要再讓那個(gè)哭泣的嬰兒進(jìn)來了?!?
其次,一些浸信會(huì)信徒實(shí)際上是走私者。有“人工智能安全專家”、“人工智能倫理學(xué)家”、“人工智能風(fēng)險(xiǎn)研究員”的整個(gè)職業(yè)。他們被付錢成為厄運(yùn)者,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚怼?/p>
第三,加州理所當(dāng)然地以我們成千上萬的邪教而聞名,從美國東部時(shí)間到人民圣殿,從天堂之門到曼森家族。這些邪教中的許多(盡管不是全部)是無害的,甚至可能為在其中找到家的疏遠(yuǎn)者服務(wù)。但有些確實(shí)非常危險(xiǎn),眾所周知,邪教很難跨越最終導(dǎo)致暴力和死亡的界限。
而現(xiàn)實(shí),對灣區(qū)的每個(gè)人都是顯而易見的,但可能不是在灣區(qū)之外,“人工智能風(fēng)險(xiǎn)”已經(jīng)發(fā)展成為一種邪教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對話的光芒中。這個(gè)邪教不僅吸引了邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐助者——直到最近,還包括山姆·班克曼-弗里德(Sam Bankman-Fried)。它發(fā)展了一整套邪教行為和信仰。
這種邪教就是為什么有一群聽起來如此極端的人工智能風(fēng)險(xiǎn)厄運(yùn)者——并不是他們實(shí)際上擁有使他們的極端主義合乎邏輯的秘密知識(shí),而是他們已經(jīng)將自己鞭打成狂熱,真的是......極其極端。
事實(shí)證明,這種類型的邪教并不新鮮——西方有著悠久的千禧年傳統(tǒng),它產(chǎn)生了世界末日邪教。人工智能風(fēng)險(xiǎn)邪教具有千年啟示錄邪教的所有特征。來自維基百科,我補(bǔ)充:
“千禧年主義是一個(gè)團(tuán)體或運(yùn)動(dòng)[人工智能風(fēng)險(xiǎn)厄運(yùn)者]對即將到來的社會(huì)根本性轉(zhuǎn)變[人工智能的到來]的信念,之后一切都將改變[人工智能烏托邦,反烏托邦和/或世界末日]。只有戲劇性的事件(人工智能禁令、對數(shù)據(jù)中心的空襲、對不受監(jiān)管的人工智能的核打擊)才被認(rèn)為能夠改變世界[防止人工智能],而這種變化預(yù)計(jì)將由一群虔誠和奉獻(xiàn)的人帶來或幸存下來。在大多數(shù)千禧年情景中,即將到來的災(zāi)難或戰(zhàn)斗[人工智能啟示錄,或其預(yù)防]之后將是一個(gè)新的、凈化的世界[人工智能禁令],信徒將得到獎(jiǎng)勵(lì)[或至少承認(rèn)一直都是正確的]。
這種啟示錄邪教模式是如此明顯,以至于我很驚訝更多的人沒有看到它。
不要誤會(huì)我的意思,邪教很有趣,他們的書面材料通常很有創(chuàng)意和引人入勝,他們的成員在晚宴和電視上參與其中。但他們的極端信仰不應(yīng)該決定法律和社會(huì)的未來——顯然不是。

AI風(fēng)險(xiǎn)#2:AI會(huì)毀掉我們的社會(huì)嗎?
第二個(gè)被廣泛討論的人工智能風(fēng)險(xiǎn)是,人工智能將毀掉我們的社會(huì),通過產(chǎn)生如此“有害”的輸出,用這種毀滅者的命名法來說,對人類造成深遠(yuǎn)的傷害,即使我們沒有被殺死。
簡短版本:如果謀殺機(jī)器人沒有抓住我們,仇恨言論和錯(cuò)誤信息就會(huì)得到。
這是一個(gè)相對較新的厄運(yùn)問題,它從我上面描述的“人工智能風(fēng)險(xiǎn)”運(yùn)動(dòng)中分支出來并在某種程度上接管了它。事實(shí)上,人工智能風(fēng)險(xiǎn)的術(shù)語最近從“人工智能安全”(擔(dān)心人工智能會(huì)殺死我們的人使用的術(shù)語)變成了“人工智能對齊”——擔(dān)心社會(huì)“危害”的人使用的術(shù)語。最初的AI安全人員對這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何將其放回盒子里 - 他們現(xiàn)在主張將實(shí)際的AI 風(fēng)險(xiǎn)主題更名為“AI notkilleveryoneism”,這尚未被廣泛采用,但至少是明確的。
人工智能社會(huì)風(fēng)險(xiǎn)索賠性質(zhì)的提示是它自己的術(shù)語,“人工智能對齊”。 與什么對齊? 人類價(jià)值觀。 誰的人類價(jià)值觀? 啊,這就是事情變得棘手的地方。
碰巧的是,我坐在前排,看到類似的情況——社交媒體的“信任與安全”戰(zhàn)爭?,F(xiàn)在很明顯,社交媒體服務(wù)多年來一直受到政府和活動(dòng)家的巨大壓力,要求禁止、限制、審查或以其他方式壓制各種內(nèi)容。對“仇恨言論”(及其數(shù)學(xué)對應(yīng)物“算法偏見”)和“錯(cuò)誤信息”的同樣擔(dān)憂正在從社交媒體環(huán)境中直接轉(zhuǎn)移到“人工智能對齊”的新領(lǐng)域。
我從社交媒體大戰(zhàn)中學(xué)到的重要經(jīng)驗(yàn)是:
一方面,沒有絕對主義的言論自由立場。首先,每個(gè)國家,包括美國,都至少將某些內(nèi)容定為非法。其次,某些類型的內(nèi)容,如兒童色情和煽動(dòng)現(xiàn)實(shí)世界的暴力,幾乎被每個(gè)社會(huì)普遍認(rèn)為是禁區(qū),無論是否合法。因此,任何促進(jìn)或生成內(nèi)容(語音)的技術(shù)平臺(tái)都會(huì)受到一些限制。
另一方面,滑坡不是謬誤,而是必然。一旦一個(gè)限制甚至極其可怕的內(nèi)容的框架到位——例如,仇恨言論、特定的傷害性詞語或錯(cuò)誤信息,顯然是虛假的聲明,如“教皇死了”——令人震驚的廣泛政府機(jī)構(gòu)和活動(dòng)壓力團(tuán)體和非政府實(shí)體 將開始并要求更高水平的審查和壓制他們認(rèn)為對社會(huì)和/或他們自己的個(gè)人偏好構(gòu)成威脅的任何言論。他們將以赤裸裸的重罪方式這樣做,包括這樣做。在實(shí)踐中,這個(gè)循環(huán)顯然可以永遠(yuǎn)持續(xù)下去,在我們的精英權(quán)力結(jié)構(gòu)中安裝的專制大廳監(jiān)視器的熱情支持下。這在社交媒體上已經(jīng)層層疊了十年,只有某些例外,它一直在變得更加狂熱。
這就是現(xiàn)在圍繞“人工智能對齊”形成的動(dòng)態(tài)。它的支持者聲稱有智慧來設(shè)計(jì)人工智能生成的對社會(huì)有益的言論和思想,并禁止人工智能生成的對社會(huì)有害的言論和思想。它的反對者聲稱,思想警察是令人嘆為觀止的傲慢和放肆的——至少在美國往往是徹頭徹尾的罪犯——事實(shí)上,他們正在尋求成為一種新型的融合政府-企業(yè)-學(xué)術(shù)專制言論獨(dú)裁者,直接從喬治·奧威爾(George Orwell)的《1984》中撕下來。
由于“信任與安全”和“人工智能聯(lián)盟”的支持者都聚集在全球人口中非常狹窄的人群中,這是美國沿海精英的特征——其中包括許多在科技行業(yè)工作和寫作的人——我的許多讀者會(huì)發(fā)現(xiàn)自己已經(jīng)準(zhǔn)備好爭辯說,為了避免摧毀社會(huì),需要對人工智能輸出進(jìn)行嚴(yán)格的限制。我現(xiàn)在不會(huì)試圖說服你擺脫這種情況,我只想說這是需求的本質(zhì),世界上大多數(shù)人既不同意你的意識(shí)形態(tài),也不想看到你獲勝。
如果你不同意通過不斷強(qiáng)化的語音代碼強(qiáng)加給社交媒體和人工智能的普遍小眾道德,你也應(yīng)該意識(shí)到,關(guān)于人工智能被允許說/生成什么的斗爭將?比對社交媒體審查的斗爭更重要。人工智能極有可能成為世界上一切事物的控制層。如何允許它運(yùn)作可能比其他任何事情都重要。你應(yīng)該意識(shí)到,一小撮孤立的社會(huì)工程師小圈子現(xiàn)在正試圖確定這一點(diǎn),在他們保護(hù)你的古老主張的掩護(hù)下。
簡而言之,不要讓思想警察壓制人工智能。

AI風(fēng)險(xiǎn)#3:AI會(huì)搶走我們所有的工作嗎?
自機(jī)械織機(jī)等機(jī)械織機(jī)等機(jī)械最初出現(xiàn)以來,數(shù)百年來,由于機(jī)械化、自動(dòng)化、計(jì)算機(jī)化或人工智能而對失業(yè)的恐懼一直是反復(fù)出現(xiàn)的恐慌。盡管歷史上每一項(xiàng)新的重大技術(shù)都帶來了更多以更高的工資工作,但每一波恐慌都伴隨著“這次不同”的主張——這是它最終會(huì)發(fā)生的時(shí)候,這是最終將給人類勞動(dòng)帶來重?fù)舻募夹g(shù)。然而,它從未發(fā)生過。
在最近的過去,我們經(jīng)歷了兩個(gè)這樣的技術(shù)驅(qū)動(dòng)的失業(yè)恐慌周期—— 2000年代的外包恐慌和2010年代的自動(dòng)化恐慌。盡管在大規(guī)模失業(yè)臨近的這兩個(gè)十年里,許多談話領(lǐng)袖、專家甚至科技行業(yè)高管都在抨擊桌子,但到 2019 年底——就在 COVID 爆發(fā)之前——世界擁有比以往任何時(shí)候都多的工作崗位,工資更高。
然而,這種錯(cuò)誤的想法不會(huì)消亡。
果然,它回來了。
這一次,我們終于擁有了能夠取代所有工作并使人類工人變得多余的技術(shù)——真正的人工智能。當(dāng)然,這一次歷史不會(huì)重演,人工智能將導(dǎo)致大規(guī)模失業(yè)——而不是快速的經(jīng)濟(jì)、就業(yè)和工資增長——對吧?
不,這不會(huì)發(fā)生——事實(shí)上,如果允許人工智能在整個(gè)經(jīng)濟(jì)中發(fā)展和擴(kuò)散,可能會(huì)導(dǎo)致有史以來最戲劇性和持續(xù)的經(jīng)濟(jì)繁榮,相應(yīng)地創(chuàng)造創(chuàng)紀(jì)錄的就業(yè)和工資增長——與恐懼完全相反。原因如下。
自動(dòng)化殺死工作的厄運(yùn)者不斷犯的核心錯(cuò)誤被稱為勞動(dòng)力謬誤。這種謬誤是一種不正確的觀念,即在任何給定時(shí)間,經(jīng)濟(jì)中都有固定數(shù)量的勞動(dòng)要做,要么機(jī)器做,要么人做——如果機(jī)器做,人們就沒有工作可做。
勞動(dòng)謬誤自然地源于幼稚的直覺,但這里的天真直覺是錯(cuò)誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時(shí),我們就會(huì)獲得生產(chǎn)率增長——通過減少投入來增加產(chǎn)出。其結(jié)果是商品和服務(wù)的價(jià)格降低。隨著商品和服務(wù)價(jià)格的下降,我們?yōu)樗鼈冎Ц兜馁M(fèi)用也越來越少,這意味著我們現(xiàn)在有額外的消費(fèi)能力來購買其他東西。這增加了經(jīng)濟(jì)中的需求,從而推動(dòng)了新生產(chǎn)的創(chuàng)造 - 包括新產(chǎn)品和新產(chǎn)業(yè) - 然后為以前工作中被機(jī)器取代的人創(chuàng)造新的就業(yè)機(jī)會(huì)。其結(jié)果是一個(gè)更大的經(jīng)濟(jì)體,擁有更高的物質(zhì)繁榮、更多的工業(yè)、更多的產(chǎn)品和更多的就業(yè)機(jī)會(huì)。
但好消息并不止于此。我們也得到了更高的工資。這是因?yàn)?,在個(gè)體工人的層面上,市場將補(bǔ)償設(shè)定為工人邊際生產(chǎn)力的函數(shù)。技術(shù)注入企業(yè)中的工人將比傳統(tǒng)企業(yè)中的工人更有效率。雇主要么付給工人更多的錢,因?yàn)樗F(xiàn)在的生產(chǎn)力更高,要么另一個(gè)雇主會(huì),純粹是出于自身利益。其結(jié)果是,引入行業(yè)的技術(shù)通常不僅增加了該行業(yè)的工作崗位數(shù)量,而且還提高了工資。
總而言之,技術(shù)使人們能夠提高工作效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價(jià)格下降,工資上漲。這反過來又導(dǎo)致經(jīng)濟(jì)增長和就業(yè)增長,同時(shí)激勵(lì)創(chuàng)造新的就業(yè)機(jī)會(huì)和新產(chǎn)業(yè)。如果允許市場經(jīng)濟(jì)正常運(yùn)行,如果允許技術(shù)自由引入,這是一個(gè)永無止境的永久上升循環(huán)。因?yàn)?,正如米爾頓·弗里德曼(Milton Friedman)所說,“人類的需求是無窮無盡的”——我們總是想要比我們擁有的更多。技術(shù)注入的市場經(jīng)濟(jì)是我們更接近于提供每個(gè)人都可以想象到的一切的方式,但永遠(yuǎn)不會(huì)一直到那里。這就是為什么技術(shù)不會(huì)摧毀工作,也永遠(yuǎn)不會(huì)。
對于沒有接觸過它們的人來說,這些想法是如此令人振奮,以至于您可能需要一些時(shí)間來理解它們。但我發(fā)誓我不是編造的——事實(shí)上,你可以在標(biāo)準(zhǔn)的經(jīng)濟(jì)學(xué)教科書中讀到所有關(guān)于它們的內(nèi)容。我推薦 亨利·黑茲利特(Henry Hazlitt)的《一堂課中的經(jīng)濟(jì)學(xué)》(Economics In One Lesson)中的“機(jī)械的詛咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)諷刺性的《蠟燭匠請?jiān)笗罚–andlemaker's Petition),因?yàn)樗c照明行業(yè)的不公平競爭而遮蔽了太陽,這里為我們的時(shí)代進(jìn)行了現(xiàn)代化改造。
但這次不同,你在想。?這一次,有了人工智能,我們就有了可以取代所有人類勞動(dòng)力的技術(shù)。
但是,使用我上面描述的原則,想想所有現(xiàn)有的人類勞動(dòng)被機(jī)器取代意味著什么。
這將意味著經(jīng)濟(jì)生產(chǎn)率增長的起飛速度絕對是平流層的,遠(yuǎn)遠(yuǎn)超過任何歷史先例。現(xiàn)有商品和服務(wù)的價(jià)格將全面下降到幾乎為零。消費(fèi)者福利將飆升。消費(fèi)者的消費(fèi)能力將飆升。經(jīng)濟(jì)中的新需求將爆炸式增長。企業(yè)家將創(chuàng)造一系列令人眼花繚亂的新行業(yè)、產(chǎn)品和服務(wù),并盡可能快地雇用盡可能多的人和?人工智能來滿足所有新需求。
假設(shè)人工智能再次取代這種勞動(dòng)?這種循環(huán)將重演,推動(dòng)消費(fèi)者福利、經(jīng)濟(jì)增長以及就業(yè)和工資增長進(jìn)一步提高。這將是一個(gè)直截了當(dāng)?shù)穆菪?,通向一個(gè)亞當(dāng)·斯密或卡爾·馬克思都不敢夢想的物質(zhì)烏托邦。
我們應(yīng)該很幸運(yùn)。

人工智能風(fēng)險(xiǎn)#4:人工智能會(huì)導(dǎo)致嚴(yán)重的不平等嗎?
說到卡爾·馬克思(Karl Marx),對人工智能搶走工作的擔(dān)憂直接轉(zhuǎn)向了下一個(gè)聲稱的人工智能風(fēng)險(xiǎn),也就是說,好吧,馬克,假設(shè)人工智能確實(shí)搶走了所有的工作,無論是壞事還是好事。這難道不會(huì)導(dǎo)致大規(guī)模和嚴(yán)重的財(cái)富不平等,因?yàn)槿斯ぶ悄艿乃姓攉@得了所有的經(jīng)濟(jì)回報(bào),而普通人卻一無所獲?
碰巧的是,這是馬克思主義的一個(gè)核心主張,即生產(chǎn)資料的所有者——資產(chǎn)階級(jí)——將不可避免地從從事實(shí)際工作的人——無產(chǎn)階級(jí)那里竊取所有社會(huì)財(cái)富。這是另一個(gè)謬論,無論它被現(xiàn)實(shí)反駁多少次都不會(huì)消亡。但無論如何,讓我們在它的心臟上打一根木樁。
這個(gè)理論的缺陷在于,作為一項(xiàng)技術(shù)的所有者,把它留給自己不符合你自己的利益——事實(shí)上恰恰相反,把它賣給盡可能多的客戶符合你自己的利益。世界上任何產(chǎn)品的最大市場是整個(gè)世界,我們所有8億人。因此,在現(xiàn)實(shí)中,每一項(xiàng)新技術(shù)——即使是那些一開始就賣給高薪大公司或富裕消費(fèi)者的稀薄空氣的技術(shù)——都會(huì)迅速擴(kuò)散,直到它掌握在盡可能大的大眾市場手中,最終落入地球上的每個(gè)人手中。
這方面的典型例子是埃隆·馬斯克(Elon Musk)在 2006年為特斯拉提出的所謂“秘密計(jì)劃”——他自然而然地公開發(fā)布了該計(jì)劃:
第1步,建造[昂貴的]跑車
第 2 步,用這筆錢制造一輛負(fù)擔(dān)得起的汽車
第 3 步,用這筆錢制造一輛更實(shí)惠的汽車
...當(dāng)然,這正是他所做的,因此成為世界上最富有的人。
最后一點(diǎn)是關(guān)鍵。如果埃隆今天只向富人出售汽車,他會(huì)更富有嗎?不,如果他只為自己制造汽車,他會(huì)比這更富有嗎?當(dāng)然不是。不,他通過向最大的市場——世界銷售來最大化自己的利潤。
簡而言之,每個(gè)人都能得到東西——正如我們過去看到的那樣,不僅是汽車,還有電力、收音機(jī)、計(jì)算機(jī)、互聯(lián)網(wǎng)、手機(jī)和搜索引擎。這些技術(shù)的制造商非常積極地降低價(jià)格,直到地球上每個(gè)人都能負(fù)擔(dān)得起。這正是人工智能中已經(jīng)發(fā)生的事情——這就是為什么你可以使用最先進(jìn)的生成人工智能,不僅成本低,而且今天甚至以?微軟必應(yīng)和谷歌巴德的形式免費(fèi)——而且它將繼續(xù)發(fā)生。不是因?yàn)檫@些供應(yīng)商愚蠢或慷慨,而恰恰是因?yàn)樗麄冐澙贰麄兿胱畲蠡麄兊氖袌鲆?guī)模,從而最大化他們的利潤。
因此,發(fā)生的事情與推動(dòng)財(cái)富集中的技術(shù)相反 - 技術(shù)的個(gè)人客戶,最終包括地球上的每個(gè)人,反而被賦予權(quán)力,并捕獲大部分產(chǎn)生的價(jià)值。與以前的技術(shù)一樣,構(gòu)建人工智能的公司 - 假設(shè)它們必須在自由市場中運(yùn)作 - 將激烈競爭以實(shí)現(xiàn)這一目標(biāo)。
馬克思當(dāng)時(shí)錯(cuò)了,現(xiàn)在他也錯(cuò)了。
這并不是?說不平等在我們的社會(huì)中不是一個(gè)問題。事實(shí)上,它不是由技術(shù)驅(qū)動(dòng)的,而是由相反的,由對新技術(shù)最抗拒的經(jīng)濟(jì)部門驅(qū)動(dòng),這些部門擁有最多的政府干預(yù)來阻止采用人工智能等新技術(shù) - 特別是住房,教育和醫(yī)療保健。人工智能和不平等的實(shí)際風(fēng)險(xiǎn)不是人工智能會(huì)導(dǎo)致更多的不平等,而是我們不會(huì)允許人工智能被用來減少不平等。

AI風(fēng)險(xiǎn)#5:AI會(huì)導(dǎo)致壞人做壞事嗎?
到目前為止,我已經(jīng)解釋了為什么人工智能最常提出的五個(gè)風(fēng)險(xiǎn)中有四個(gè)實(shí)際上并不真實(shí)——人工智能不會(huì)復(fù)活并殺死我們,人工智能不會(huì)毀掉我們的社會(huì),人工智能不會(huì)造成大規(guī)模失業(yè),人工智能不會(huì)導(dǎo)致不平等的毀滅性增加。但是現(xiàn)在讓我們解決第五個(gè)問題,我實(shí)際上同意這一點(diǎn):人工智能將使壞人更容易做壞事。
從某種意義上說,這是一種重言式。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——壞事——燒人,打人。任何技術(shù)都可以用于好或壞。很公平。毫無疑問,人工智能將使犯罪分子、恐怖分子和敵對政府更容易做壞事。
這導(dǎo)致一些人提出,好吧,在這種情況下,我們不要冒險(xiǎn),讓我們在這種情況發(fā)生之前現(xiàn)在就禁止人工智能。不幸的是,人工智能并不是一些難以獲得的深?yuàn)W的物理材料,比如钚。恰恰相反,它是世界上最容易獲得的材料——數(shù)學(xué)和代碼。
AI貓顯然已經(jīng)從袋子里出來了。您可以從數(shù)以千計(jì)的免費(fèi)在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建 AI,并且每天都有出色的開源實(shí)現(xiàn)激增。人工智能就像空氣——它將無處不在。要阻止如此嚴(yán)厲的極權(quán)主義壓迫——一個(gè)世界政府監(jiān)視和控制所有計(jì)算機(jī)?黑色直升機(jī)上的暴徒抓住流氓 GPU?– 我們不會(huì)有一個(gè)社會(huì)需要保護(hù)。
因此,有兩種非常簡單的方法可以解決壞人用人工智能做壞事的風(fēng)險(xiǎn),而這些正是我們應(yīng)該關(guān)注的。
首先,我們有法律將任何人將要用人工智能做的大多數(shù)壞事定為犯罪。入侵五角大樓?這是犯罪。從銀行偷錢?這是犯罪。制造生物武器?這是犯罪。犯下恐怖主義行為?這是犯罪。我們可以在可能的情況下集中精力預(yù)防這些罪行,在不能預(yù)防時(shí)起訴這些罪行。我們甚至不需要新的法律——我不知道有人提出的人工智能的實(shí)際不良用途已經(jīng)不是非法的。如果發(fā)現(xiàn)新的不良用途,我們將禁止該使用。QED。
但你會(huì)注意到我在那里溜進(jìn)去的東西——我說我們應(yīng)該首先關(guān)注在人工智能協(xié)助犯罪發(fā)生之前預(yù)防它們——這樣的預(yù)防不意味著禁止人工智能嗎?嗯,還有另一種方法可以防止這種行為,那就是使用人工智能作為防御工具。使人工智能在有壞目標(biāo)的壞人手中變得危險(xiǎn)的相同能力,使其在有好目標(biāo)的好人手中變得強(qiáng)大——特別是那些工作是防止壞事發(fā)生的好人。
例如,如果你擔(dān)心人工智能會(huì)產(chǎn)生假人和假視頻,答案是構(gòu)建新的系統(tǒng),人們可以通過加密簽名來驗(yàn)證自己和真實(shí)內(nèi)容。真假內(nèi)容的數(shù)字創(chuàng)建和更改在人工智能之前就已經(jīng)存在;答案不是禁止文字處理器和Photoshop或AI,而是使用技術(shù)來構(gòu)建一個(gè)真正解決問題的系統(tǒng)。
因此,其次,讓我們做出重大努力,將人工智能用于良好的、合法的、防御性的目的。讓我們讓人工智能在網(wǎng)絡(luò)防御、生物防御、獵殺恐怖分子以及我們?yōu)楸Wo(hù)自己、我們的社區(qū)和我們的國家安全所做的一切中發(fā)揮作用。
當(dāng)然,政府內(nèi)外已經(jīng)有很多聰明人這樣做——但如果我們把目前專注于禁止人工智能的徒勞前景的所有努力和腦力都用于?使用人工智能來防止壞人做壞事,我認(rèn)為毫無疑問,一個(gè)注入人工智能的世界將比我們今天生活的世界安全得多。

不以最大力量和速度追求人工智能的實(shí)際風(fēng)險(xiǎn)
有一個(gè)最終的,也是真實(shí)的,人工智能的風(fēng)險(xiǎn)可能是最可怕的:
人工智能不僅在西方相對自由的社會(huì)中發(fā)展,它也是由中華人民共和國共產(chǎn)黨開發(fā)的。
中國對人工智能的看法與我們大不相同——他們認(rèn)為人工智能是一種威權(quán)人口控制的機(jī)制。他們甚至沒有對此保密,他們對此非常清楚,他們已經(jīng)在追求他們的議程。他們并不打算將他們的人工智能戰(zhàn)略局限于中國——他們打算將其擴(kuò)散到世界各地,在他們?yōu)?G網(wǎng)絡(luò)供電的任何地方,在他們借給“一帶一路”資金的任何地方,在他們提供像Tiktok這樣的友好消費(fèi)者應(yīng)用程序的地方,作為他們集中指揮和控制人工智能的前端。
人工智能最大的風(fēng)險(xiǎn)是,中國贏得了全球人工智能的主導(dǎo)地位,而我們——美國和西方——卻沒有。
我提出了一個(gè)簡單的策略來解決這個(gè)問題——事實(shí)上,羅納德·里根總統(tǒng)用來贏得與蘇聯(lián)的第一次冷戰(zhàn)的策略是一樣的。
“我們贏了,他們輸了。”
與其讓圍繞殺手級(jí)人工智能、“有害”人工智能、破壞就業(yè)的人工智能和產(chǎn)生不平等的人工智能的無根據(jù)恐慌讓我們陷入困境,我們美國和西方人應(yīng)該盡可能地傾向于人工智能。
我們應(yīng)該尋求贏得全球人工智能技術(shù)優(yōu)勢的競賽,并確保中國不會(huì)這樣做。
在這個(gè)過程中,我們應(yīng)該盡可能快和努力地推動(dòng)人工智能進(jìn)入我們的經(jīng)濟(jì)和社會(huì),以最大限度地提高其對經(jīng)濟(jì)生產(chǎn)力和人類潛力的收益。
這是抵消真正的人工智能風(fēng)險(xiǎn)并確保我們的生活方式不會(huì)被更黑暗的愿景所取代的最佳方式。

怎么辦?
我提出一個(gè)簡單的計(jì)劃:
大型人工智能公司應(yīng)該被允許盡可能快速和積極地構(gòu)建人工智能,但不允許實(shí)現(xiàn)監(jiān)管捕獲,不允許建立一個(gè)政府保護(hù)的卡特爾,由于人工智能風(fēng)險(xiǎn)的錯(cuò)誤主張而不受市場競爭的影響。這將最大限度地提高這些公司驚人能力的技術(shù)和社會(huì)回報(bào),這些公司是現(xiàn)代資本主義的瑰寶。
應(yīng)該允許初創(chuàng)的人工智能公司盡可能快速和積極地構(gòu)建人工智能?。他們既不應(yīng)該面對政府給予的大公司的保護(hù),也不應(yīng)該接受政府的援助。他們應(yīng)該被允許競爭。如果創(chuàng)業(yè)公司沒有成功,它們在市場上的存在也將不斷激勵(lì)大公司做到最好——我們的經(jīng)濟(jì)和社會(huì)無論哪種方式都會(huì)贏。
開源人工智能應(yīng)該被允許自由擴(kuò)散,并與大型人工智能公司和初創(chuàng)公司競爭。開源不應(yīng)該有任何監(jiān)管障礙。即使開源沒有擊敗公司,它的廣泛可用性對世界各地想要學(xué)習(xí)如何構(gòu)建和使用人工智能成為技術(shù)未來一部分的學(xué)生來說也是一個(gè)福音,并將確保人工智能可供每個(gè)可以從中受益的人使用,無論他們是誰或他們有多少錢。
為了抵消壞人用人工智能做壞事的風(fēng)險(xiǎn),政府應(yīng)該與私營部門合作,積極參與每個(gè)潛在風(fēng)險(xiǎn)領(lǐng)域,利用人工智能最大限度地提高社會(huì)的防御能力。這不應(yīng)僅限于人工智能支持的風(fēng)險(xiǎn),還應(yīng)包括營養(yǎng)不良、疾病和氣候等更普遍的問題。人工智能可以成為解決問題的強(qiáng)大工具,我們應(yīng)該接受它。
為了防止中國實(shí)現(xiàn)全球人工智能主導(dǎo)地位的風(fēng)險(xiǎn),我們應(yīng)該利用我們的私營部門、我們的科學(xué)機(jī)構(gòu)和我們的政府的全部力量,共同推動(dòng)美國和西方人工智能走向絕對的全球主導(dǎo)地位,包括最終在中國國內(nèi)。我們贏了,他們輸了。
這就是我們利用人工智能拯救世界的方式。
是時(shí)候去開創(chuàng)了。

傳奇與英雄
最后,我簡單說兩句話。
人工智能的發(fā)展始于 1940 年代,與計(jì)算機(jī)的發(fā)明同時(shí)出現(xiàn)。第一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的科學(xué)論文——我們今天擁有的人工智能架構(gòu)——發(fā)表于 1943 年。在過去的80年里,整整幾代人工智能科學(xué)家出生、上學(xué)、工作,在許多情況下,他們?nèi)ナ罆r(shí)沒有看到我們現(xiàn)在得到的回報(bào)。他們都是傳奇,每一個(gè)人。
如今,越來越多的工程師——其中許多人都很年輕,可能有祖父母甚至曾祖父母參與了人工智能背后想法的創(chuàng)造——正在努力使人工智能成為現(xiàn)實(shí),反對一堵散布恐懼和涂鴉主義的墻,試圖將他們描繪成魯莽的惡棍。我不相信他們是魯莽或惡棍。他們都是英雄,每一個(gè)人。我和我的公司很高興能盡可能多地支持他們,我們將100%與他們和他們的工作站在一起。
馬克·安德森的觀點(diǎn)值得批判學(xué)習(xí),尤其是美國的精英階層已經(jīng)注意到中國對于AI的認(rèn)知與西方世界大相徑庭,但顯然中國的議程更有改變未來的力量,所以馬克在其觀點(diǎn)中也發(fā)出了對華遏制與對抗的聲音,這是值得警惕的。