簡析AI

      網(wǎng)友投稿 613 2025-03-31

      簡析AI

      從20世紀60年代開始,人們就在期待像哈爾(HAL)這樣的科幻級別的AI,然而直到最近,PC和機器人還是非常愚笨。現(xiàn)在,科技巨頭和創(chuàng)業(yè)公司宣告了AI革命的到來:無人駕駛汽車、機器人醫(yī)生、機器投資者等等。普華永道認為,到2030年,AI將會向世界經(jīng)濟貢獻15.7萬億美元。“AI”是2017年的熱詞,就像“.com”是1999年的時髦用語那樣,每一個人都宣稱自己對AI感興趣。不要被有關(guān)AI的炒作所迷惑,它是泡沫還是真實?和舊有的AI潮流相比,它現(xiàn)在有什么新穎之處?

      AI并不會輕易或迅速地被應(yīng)用。最令人興奮的AI實例往往來自大學(xué)或者科技巨頭。任何許諾用最新的AI技術(shù)讓公司發(fā)生革命性變革的自封的AI專家,都只是在傳遞錯誤的AI信息,其中某些人只是重塑舊有技術(shù)的形象,把它們包裝成AI。每個人都已經(jīng)通過使用Google、微軟、亞馬遜的服務(wù),來體驗了最新的AI技術(shù)。但是,“深度學(xué)習(xí)”不會迅速地被大企業(yè)所掌握,用來定制內(nèi)部項目。大多數(shù)人都缺乏足夠的相關(guān)數(shù)字數(shù)據(jù),不足以可靠地用來訓(xùn)練AI。結(jié)果就是,AI并不會殺死所有的工作機會,尤其因為它在訓(xùn)練和測試每個AI的時候還是需要人類。

      AI目前已經(jīng)能夠“用眼睛看到”,并精通一些視覺相關(guān)的工作了,比如:通過醫(yī)學(xué)影像識別癌癥或其他疾病,在統(tǒng)計學(xué)上優(yōu)于人類放射科醫(yī)師、眼科醫(yī)師、皮膚科醫(yī)師等,還有駕駛汽車、讀唇語。AI能通過學(xué)習(xí)樣本(比如畢加索或者你的畫作)畫出任何一種風(fēng)格的圖畫。反過來,它也能通過一幅畫,補足缺失的信息,猜出真實的照片是什么。AI看著網(wǎng)頁或應(yīng)用的屏幕截圖,就能寫出代碼制作出類似的網(wǎng)頁或應(yīng)用。

      AI目前還能“用耳朵聽到”,它不只能聽懂你的話,還能通過聽Beatles或你的音樂,創(chuàng)作出新的音樂,或者模擬它聽到的任何人的聲音。一般人無法分辨出一幅畫或一首曲子是由人還是由機器創(chuàng)作的,也無法分辨出一段話是由人類還是AI說出的。

      被訓(xùn)練用來贏得撲克比賽的AI學(xué)會了虛張聲勢,能夠處理丟牌、潛在的造假行為,還能誤導(dǎo)信息。被訓(xùn)練用來談判的機器人也學(xué)會了欺騙,能猜測出你什么時候在說謊,如果需要它們也會撒謊。一個用來在日語和英語間翻譯或者在韓語和英語間翻譯的AI,也能在韓語和日語間進行翻譯轉(zhuǎn)換。看起來翻譯AI自己創(chuàng)造了一種中間語言,能不分語言的界限演繹任何一個句子。

      機器學(xué)習(xí)(ML)是AI的一個子類別,它能讓機器從經(jīng)驗中學(xué)習(xí),從真實世界的實例中學(xué)習(xí),數(shù)據(jù)量越大,它就能學(xué)到越多。據(jù)說,如果一臺機器完成一項任務(wù)的表現(xiàn)隨著經(jīng)驗的增多越來越好,那它就能根據(jù)這項任務(wù)的經(jīng)驗進行學(xué)習(xí)。但大部分AI還是根據(jù)固定規(guī)則制造出來的,它們并不能學(xué)習(xí)。從現(xiàn)在開始,我將使用“機器學(xué)習(xí)”這個詞來指稱“從數(shù)據(jù)中進行學(xué)習(xí)的AI”,以此強調(diào)它和其他AI的區(qū)別。

      人工神經(jīng)網(wǎng)絡(luò)只是通往機器學(xué)習(xí)的其中一種方式,其他路徑還包括決策樹、支持向量機等。深度學(xué)習(xí)是一種具有許多抽象層次的人工神經(jīng)網(wǎng)絡(luò)。不去談“深度”這個有炒作意味的詞,很多機器學(xué)習(xí)方法都是“淺顯的”。成功的機器學(xué)習(xí)通常是混合的,也就是很多方法的組合,比如樹+深度學(xué)習(xí)+其他,它們都是被分別訓(xùn)練而成的,再把它們結(jié)合在一起。每一個方法都可能帶來不同的錯誤,所以,平均了它們每一個方法成功的結(jié)果,它們就勝過了單獨一種方法。

      舊有的AI并不能“學(xué)習(xí)”。它是基于規(guī)則的,它只是幾個人類寫成的“如果……那么……”。它只要能解決問題就被稱作是AI,但它不是機器學(xué)習(xí),因為它不能從數(shù)據(jù)中進行學(xué)習(xí)。目前的AI和自動系統(tǒng)中大部分依然是基于規(guī)則的代碼。機器學(xué)習(xí)從20世紀60年代開始才被人了解,但就像人類大腦一樣,它需要大量的計算設(shè)備處理大量的數(shù)據(jù)。在20世紀80年代,要在PC上訓(xùn)練一個ML需要幾個月時間,而那時候的數(shù)字數(shù)據(jù)也非常稀少。手動輸入的基于規(guī)則的代碼能快速地解決大部分問題,所以機器學(xué)習(xí)就被遺忘了。但用我們現(xiàn)在的硬件,你能在幾分鐘內(nèi)就訓(xùn)練出一個ML,我們知道最佳的參數(shù),而且數(shù)字數(shù)據(jù)也更多了。然后在2010年之后,一個又一個AI領(lǐng)域開始被機器學(xué)習(xí)所掌控,從視覺、語音、語言翻譯到玩游戲,機器學(xué)習(xí)勝過了基于規(guī)則的AI,而且通常也能勝過人類。

      為什么AI在1997年的國際象棋比賽中就擊敗了人類,但直到2016年,才在圍棋比賽中擊敗了人類呢?因為在1997年,計算機僅僅簡單地計算出了國際象棋8x8棋盤中所有的可能性,但圍棋擁有19x19的可能性,計算機要計算出所有可能性需要十億年。這就像要隨機組合出所有字母,以此得到這樣一整篇文章一樣:這根本不可能。所以,人們已知的唯一的希望在于訓(xùn)練出一個ML,但是ML是近似的,不是確定的,機器學(xué)習(xí)是“隨機的”,它可以被用于統(tǒng)計分析的模式,但不能用于準確的預(yù)測。

      機器學(xué)習(xí)讓自動化成為可能,只要你準備好訓(xùn)練ML的正確數(shù)據(jù)就可以了。

      大多數(shù)機器學(xué)習(xí)都屬于監(jiān)督學(xué)習(xí),這里用來訓(xùn)練的實例都是有標簽的,標簽就是關(guān)于每個實例的描述或者標注。你首先需要人工把那些關(guān)于貓的照片從關(guān)于狗的照片中分離出來,或者把垃圾郵件從正常郵件中分離出來。如果你錯誤地給數(shù)據(jù)打了標簽,最后ML就會不正確,這至關(guān)重要。把未打標簽的數(shù)據(jù)放到ML里,這就是無監(jiān)督學(xué)習(xí),在這里ML會發(fā)現(xiàn)有用的數(shù)據(jù)的模型和群組,但它不能單獨用來解決很多問題。所以有些ML是半監(jiān)督式的。

      在異常檢測中,你可以識別出不同尋常的東西,比如欺詐或者賽博入侵。一個通過老式欺詐訓(xùn)練出來的ML會錯過那些新式的欺詐。你可以讓ML對任何可疑的不同之處做出警告。政府部門已經(jīng)開始用ML來偵查逃稅行為了。

      強化學(xué)習(xí)在1983年的電影《戰(zhàn)爭游戲》中就已經(jīng)有了體現(xiàn),在電影里,計算機通過打通光速中的每一個場景,從而避免了第三次世界大戰(zhàn)。這個AI在百萬計的失敗與嘗試中探索,最終得到了巨大的回報。AlphaGo是這樣被訓(xùn)練而成的:它曾數(shù)百萬次地扮演自己的對手,從而獲得超越人類的技能。它使出了前所未見的招數(shù),人類選手甚至可能會把它看做錯誤的招數(shù)。但后來,這些招數(shù)被公認為機智非凡。ML開始變得比人類圍棋選手更富有創(chuàng)造性。

      在人們認為AI不是真正智能的時候,“AI效應(yīng)”就出現(xiàn)了。人們在潛意識里需要相信魔力,需要相信人類在宇宙中的獨一無二。每一次機器在某一項智能活動中超越了人類時,比如在下象棋、識別圖片或者翻譯時,人們總是會說:“那只是強力計算能力,那不是智能。”很多app里都有AI存在,然而一旦被廣泛應(yīng)用,它就不再被稱作“智能”。如果“智能”只是AI沒有達成的技能(也就是獨屬于大腦的技能),那字典每一年都要被更新,比如:數(shù)學(xué)在20世紀50年代之前才被認為是智力活動,現(xiàn)在已經(jīng)不是了。這真是太奇怪了。關(guān)于“強力計算能力”,一個人類大腦擁有100萬億個神經(jīng)元連接,比地球上任何一個計算機所擁有的都多得多。機器學(xué)習(xí)不能做“強力計算”,如果讓機器學(xué)習(xí)去嘗試所有連接,那需要花上十億年的時間。機器學(xué)習(xí)只會“在被訓(xùn)練的基礎(chǔ)上進行猜測”,并且它使用的計算能力比大腦使用的要少。所以,應(yīng)該是AI來宣稱人類大腦不夠智能,來宣稱人類大腦只是強力計算能力而已。

      機器學(xué)習(xí)并不是一個人類大腦模擬器,真正的神經(jīng)元要不同得多。機器學(xué)習(xí)是通往真正大腦能力的另一條通路。大腦和機器學(xué)習(xí)都要處理統(tǒng)計數(shù)字(概率)來逼近復(fù)雜函數(shù),它們都會給出稍微有點偏差的結(jié)果,但這個結(jié)果是可用的。機器學(xué)習(xí)和人類大腦會針對同一任務(wù)給出不同的結(jié)果,因為它們以不同的方式處理問題。所有人都知道,大腦容易忘記事情,并且在解決特定數(shù)學(xué)問題的時候也有很多限制,但機器在記憶和數(shù)學(xué)方面是完美無缺的。然而,那些認為“機器要么給出確切答案,要么就是機器壞了”的舊想法是錯誤的、過時了的。人類會犯很多錯,你不會聽到說這個人類大腦壞掉了,而是會聽到讓這個人類大腦更努力地學(xué)習(xí)。所以,ML也不是壞掉了,它們需要更努力地學(xué)習(xí),在更多不同的數(shù)據(jù)中學(xué)習(xí)。

      AI正在變得像人類一樣神秘。那些認為計算機無法擁有創(chuàng)造力,不能撒謊、出錯或者像人類一樣的想法,是來自于舊有的基于規(guī)則的AI,這些AI確實是可預(yù)測的,但它們會隨著機器學(xué)習(xí)的出現(xiàn)而發(fā)生改變。AI一旦掌握了某些新的能力,就被稱作“不夠智能”,這樣的時代已經(jīng)結(jié)束了,對AI來說,唯一真正重要的區(qū)別是:通用AI,或者狹義AI。

      和其他科學(xué)不同,你無法驗證一個ML是否在使用邏輯化的理論。要判斷一個ML是否正確,你只能通過測試那些不可見的新的數(shù)據(jù)結(jié)果。ML不是一個黑匣子,你可以看到那些它生成和運行的“如果……那么……”列表,但通常對一個人類來說,這些數(shù)據(jù)量太大太復(fù)雜了。ML是一門試圖重現(xiàn)現(xiàn)實世界之混亂與人類直覺的實用科學(xué),它不會給出簡單的或理論化的解釋。這就好像,你有一個行得通的想法,但你不能具體解釋出自己是怎么得出這個想法的。對于大腦來說,這被稱為靈感、直覺、潛意識,但對計算機來說,這就是機器學(xué)習(xí)。如果你能得到一個人在大腦里做出決定所需的全部神經(jīng)信號,你就能理解大腦做出這個決定的真正緣由和過程嗎?或許能吧,但這很復(fù)雜。

      每個人都可以通過直覺來想象另一個人的臉,可以是現(xiàn)實的臉也可以是畢加索式的臉。人們還能想象一種聲音或者音樂風(fēng)格。但沒人能用完整而有效的方式來描述一張臉、聲音或者音樂風(fēng)格的變化。人類只能看到三個維度,即使愛因斯坦也不能有意識地解決500個維度上機器學(xué)習(xí)一般的數(shù)學(xué)問題。但我們的人類大腦一直在用直覺解決這種500維的數(shù)學(xué)問題,就像魔法一樣。為什么它不能被有意識地解決呢?想想一下,如果對每個想法,大腦都給出它所使用的有上千個變量的公式,會怎樣?那些多余的信息會讓我們非常困惑,并且大幅減緩我們思考的速度,這又何必呢?沒有人類能進行幾頁長的數(shù)學(xué)計算,我們的頭上并沒有進化出USB電纜那樣的東西來。

      有缺陷的自動化會提升人類的工作,而不會殺死這些工作。

      如果沒有人能預(yù)測任何事,那么機器學(xué)習(xí)同樣做不到。很多人用多年的市場價格變化來訓(xùn)練ML,但這些AI還是無法預(yù)測市場走向。ML只有在過去的因素和趨勢保持不變的情況下進行預(yù)測。但股票和經(jīng)濟趨勢經(jīng)常變動,幾乎是隨機的。當舊的數(shù)據(jù)不再有效或者頻繁出現(xiàn)錯誤的實話,ML就會失靈。已經(jīng)習(xí)得的任務(wù)和規(guī)則必須保持一致,或至少是很少再變動,這樣你才能再次訓(xùn)練。舉個例子,學(xué)習(xí)開車、打撲克、按某種風(fēng)格畫畫、根據(jù)健康數(shù)據(jù)預(yù)測疾病、在不同語言之間進行轉(zhuǎn)換,這些是機器學(xué)習(xí)能做到的,舊有的實例在近期未來依然會是有效的。

      機器學(xué)習(xí)能在數(shù)據(jù)中找到因果聯(lián)系,但它找不到并不存在的東西。比如,在一項名為“使用面部圖像自動識別罪犯”的怪異研究中,ML學(xué)習(xí)了很多在押罪犯和無罪者的面部照片,研究者聲稱,機器學(xué)習(xí)只根據(jù)一張面部照片就能抓到新的“壞人”,但研究者“感覺”,更進一步的研究將駁回根據(jù)面貌進行判斷的有效性。他們的數(shù)據(jù)設(shè)置是有偏見的:有些看起來無辜的白領(lǐng)罪犯甚至?xí)靶λ麄兊淖龇āL能學(xué)到的唯一聯(lián)系是開心或生氣的嘴巴、領(lǐng)子的類型等。那些微笑著的穿著白領(lǐng)的人被分類為無辜誠實的,而那些看起來悲傷的穿黑領(lǐng)衣服的人則和“壞人”相關(guān)。那些機器學(xué)習(xí)專家嘗試著用人們的面部來判斷這個人的好壞,但他們卻不能通過衣著(社會階層)去判斷。機器學(xué)習(xí)放大了一種不公平的偏見:街上穿著便宜衣服的小賊比腐敗的政客和頂級企業(yè)欺詐者更容易被發(fā)現(xiàn)并受到懲罰。這種機器學(xué)習(xí)將會發(fā)現(xiàn)所有街上的小賊并把他們投入監(jiān)獄,但一個白領(lǐng)都沒有。機器學(xué)習(xí)并沒有像任何一個成年人那樣在我們這個世界生活過,它們不知道在數(shù)據(jù)以外還有什么,連那些很“明顯的”也不知道,舉個例子:在一場火災(zāi)中,火勢越大,被派去的救火車就越多。一個ML會注意到,在一個火場的消防員越多,第二天看到這場造成的破壞就越大,所以正是那些救火車導(dǎo)致了火災(zāi)破壞。結(jié)論:機器學(xué)習(xí)會以縱 火罪把消防員送進監(jiān)獄,因為這其中有95%的相關(guān)性!

      (機器學(xué)習(xí)不能從不存在的東西中尋找相關(guān)性,比如:帶有犯罪傾向的面部。但這些數(shù)據(jù)是帶有偏見的:沒有微笑著的白領(lǐng)罪犯在其中!機器學(xué)習(xí)會學(xué)到這些偏見。)

      在某些情況下,機器學(xué)習(xí)能預(yù)測人類不能預(yù)測的事情。“Deep Patient”是一個由紐約西奈山醫(yī)院用70萬患者數(shù)據(jù)訓(xùn)練而來的ML,它能用來預(yù)測精神分裂癥,而沒有任何一個人類明白要如何預(yù)測!只有ML可以做到,人類無法通過學(xué)習(xí)機器學(xué)習(xí)而做到同樣的事情。這就是問題所在:對一項投資、醫(yī)療、司法和軍事決定來說,你可能想知道AI是如何得出它的結(jié)論的,但你無法知道。你無法知道機器學(xué)習(xí)為什么拒絕了你的貸款,為什么判定你入獄,為什么把一個工作機會給了別人。ML公不公平?機器學(xué)習(xí)計算是可見的,但它們很難做成人類可閱讀的總結(jié)。機器學(xué)習(xí)就像個預(yù)言者那樣講話:“你們?nèi)祟惒焕斫猓词刮艺故窘o你們數(shù)學(xué)你們也不懂,所以信奉我吧!你測試過了我以往的預(yù)測,它們都是對的!”

      人類也從來不會完整地解釋他們所做的決定。我們會給出聽起來合理的理由,但卻通常是不完整的過于簡化的理由。那些總能從ML那里得到正確的答案的人們,會開始編造虛假的闡釋,就是因為這樣會讓公眾更容易認可ML的預(yù)測。還有些人會偷偷使用ML,并把得出的想法說成是他們自己的想法。

      ML是有限的,就是因為它們?nèi)狈νㄓ弥悄芎褪孪鹊某WR。即使把所有專業(yè)的ML融合在一起,或者訓(xùn)練一個ML做所有事情,它依然無法完成通用智能的工作。舉個例子,拿理解語言來說,你不能和Siri、Alexa或Cortana談?wù)撍性掝},就像和真正的人聊天那樣,它們只是智能助手。在2011年,IBM的Watson在Jeopardy節(jié)目中比人類選手回答得更為迅速,但它卻把加拿大和美國搞混了。ML能夠為長文生產(chǎn)出實用的簡短總結(jié),包括做出情緒分析,但卻不能像人類那樣可靠地完成這項工作。聊天機器人無法理解太多問題。目前也沒有任何一個AI能完成對一個人來說很容易的事情:推測一個顧客是否是惱怒的、充滿諷刺的,并進而調(diào)整自己的語調(diào)。并不存在像電影里那種通用的AI。但我們依然可以得到一些科幻式AI的細枝末節(jié),也就是那些在某個狹窄專業(yè)領(lǐng)域里勝過人類的AI。最新的消息是,狹窄領(lǐng)域也可以包括有創(chuàng)造性的或那些通常被認為只有人類能做的事情,比如繪畫、作曲、創(chuàng)作、猜測、欺騙和偽造情緒等,這些看起來都不需要通用的AI。

      沒人知道如何造出一個通用AI。這真是棒極了,我們已經(jīng)擁有了超人類的專業(yè)工人(狹義AI),但沒有任何一個終結(jié)者或黑客帝國會自己決定要殺掉我們。不幸的是,人類會訓(xùn)練機器頃刻間殺掉我們,舉例來說,一個恐怖分子可能會訓(xùn)練一個自動駕駛的卡車沖撞人行道。而擁有通用智能的AI可能會自我毀滅,也不會遵循恐怖分子的指令。

      AI倫理可能將被入侵,并且重新編程為非法的模式。目前的AI既不是通用的也不是屬于科學(xué)家的AI,它總是會遵從人類的指令。

      AI會殺死舊有的工作,但還會創(chuàng)造出新的機器學(xué)習(xí)訓(xùn)練員的工作,就和寵物訓(xùn)練員有點類似,而不像工程師。一個ML比一直寵物要難訓(xùn)練多了,因為它不具備通用智能,它會學(xué)會它從數(shù)據(jù)中看到的所有東西,不帶任何篩選和常識甄別。一只寵物在學(xué)會做壞事之前還會三思而后行,比如說殺死它的小伙伴們之類的。然而對ML來說,它為恐怖分子服務(wù)或為醫(yī)院服務(wù)沒什么區(qū)別,而且它也不會解釋自己為什么要這樣做。ML并不會為自己的錯誤和它為恐怖分子營造的恐怖氛圍而道歉,它畢竟不是一般的AI。

      實用機器學(xué)習(xí)訓(xùn)練。如果你用手拿著物品的照片訓(xùn)練一個ML,它會把手看做是這個物品的一部分,也就無法單獨識別出這個物品本身。一只狗知道如何從人的手上吃東西,而那愚蠢的ML則會把食物連同你的手一起吃掉。要改掉這個問題,那就要先訓(xùn)練它認識手,再訓(xùn)練它認識單獨的物品,最后訓(xùn)練手拿著物品的情況,并打上標簽“手握著物品X”。

      對一個小公司的大多數(shù)工作來說,訓(xùn)練人工要比訓(xùn)練機器學(xué)習(xí)便宜得多。教一個人類開車很容易,但讓機器學(xué)會開車去漫長而艱難。當然,也許讓機器來開車比人類要安全,尤其是考慮到那些喝醉了的、困倦不堪的、看著手機開車的、無視限速的人或者那些本性瘋狂的人類。但那么昂貴和可靠的訓(xùn)練只在大公司里有可能存在。用便宜方法訓(xùn)練出來的ML既靠不住又十分危險,但只有很少的公司有能力訓(xùn)練出可靠的AI。一個受訓(xùn)的ML永遠無法被復(fù)制,不像一個大腦的經(jīng)歷被傳送到另一個大腦中那樣。大的提供商將會售賣未經(jīng)訓(xùn)練的ML來完成可重復(fù)使用的任務(wù),比如“放射科醫(yī)師ML”。ML可以補充一個人類專家,專家總是被需要的,但它可以替代其他“多余的”員工。一家醫(yī)院可以聘用一位放射科醫(yī)師監(jiān)督ML,而不用聘用很多個放射科醫(yī)師。放射科醫(yī)師這個工作并不會滅絕,只是在每家醫(yī)院的工作職位變少了。訓(xùn)練ML的公司將會把ML賣給多家醫(yī)院,從而賺回投資資金。每一年,訓(xùn)練ML需要的成本都會降低,因為越來越多人將學(xué)會如何訓(xùn)練ML。但由于數(shù)據(jù)儲備和測試的原因,可靠的ML訓(xùn)練最終也不會變得非常廉價。在理論上說,很多工作任務(wù)都可以被自動化,但實際上只有一部分工作抵得過訓(xùn)練一個ML的成本。對于那些過于不尋常的工作,比如泌尿科醫(yī)師,或者翻譯一種古代的已經(jīng)失傳的語言,這樣的工作,其人類薪資從長期來看依然比一次性訓(xùn)練一個ML來的便宜,因為從事這種工作的人數(shù)太少了。

      在ML研究之外,人類依然會繼續(xù)從事通用AI的工作,IQ測試是錯誤的,IQ測試并不能預(yù)測人們在生活中的成功,因為那是非常多不同智能的綜合,視覺、語言、邏輯、人際關(guān)系等等,但結(jié)果依然不能用量化的IQ數(shù)字來衡量。我們認為,和人類IQ比起來,昆蟲是“愚蠢的”,但一直以來,蚊子在“咬完就跑”這樣一個單獨的任務(wù)上都勝過了人類。每一個月,AI都在更加狹窄的任務(wù)領(lǐng)域打敗人類,就像蚊子的技能那樣狹窄。等到奇點時刻來臨,AI將在所有事情上打敗我們?nèi)祟悾@很可笑。我們正在遇見很多個狹義的奇點,一旦AI在某件事上打敗了人類,所有人都期待著那些監(jiān)督AI的人放棄他們的工作。我總是讀到這樣的文章,認為人類將能夠保有他們獨一無二的有缺陷的手工工作,但事實上,AI是可以假裝有缺陷的,它們會學(xué)著在每一件制成品中做出手工一般的不同缺陷。要預(yù)測AI下一個會戰(zhàn)勝什么領(lǐng)域的人類,這不太可能,AI是有創(chuàng)造力的,但它依然缺乏通用的智能。舉個例子:喜劇演員和政客的工作是安全的,雖然他們不需要獨特的(狹窄的)學(xué)習(xí)或?qū)W位,但他們就是能夠用幽默和有說服力的事情談?wù)撊魏问虑椤H绻愕膶I(yè)是一個復(fù)雜卻狹窄的通用任務(wù),比如你是放射科醫(yī)師,ML就會受訓(xùn)來取代你。你需要具備通用智能!

      感謝?陳思?對本文的審校。

      本文轉(zhuǎn)載自異步社區(qū)

      專屬主機

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。

      上一篇:EXCEL2019向左填充怎么使用的方法
      下一篇:如何在wps表格中拆分窗口(wps表格拆分窗口怎么操作)
      相關(guān)文章
      亚洲精品夜夜夜妓女网| 亚洲乱码在线视频| 亚洲一区二区三区免费视频| 国产亚洲精品资源在线26u| 色噜噜噜噜亚洲第一| 亚洲1234区乱码| 中文字幕在线观看亚洲| 亚洲国产成人一区二区三区 | 亚洲综合无码精品一区二区三区| 亚洲国产精品一区二区第四页| 亚洲av色香蕉一区二区三区| 亚洲熟妇无码AV不卡在线播放| 激情亚洲一区国产精品| 国产91在线|亚洲| 7777久久亚洲中文字幕| 亚洲综合一区国产精品| 国产精品亚洲自在线播放页码 | 亚洲乱人伦中文字幕无码| 亚洲国产成人久久一区二区三区| 亚洲人成色77777在线观看| 亚洲精品动漫免费二区| 亚洲国产aⅴ成人精品无吗| 亚洲AV永久无码精品放毛片| 国产亚洲精品欧洲在线观看| 亚洲综合亚洲综合网成人| 国产亚洲一区二区三区在线不卡| 中文字幕专区在线亚洲| 精品国产_亚洲人成在线高清| 亚洲gv白嫩小受在线观看| 亚洲av综合色区| 亚洲综合色一区二区三区小说| 亚洲乱码一二三四五六区| 国产 亚洲 中文在线 字幕| 亚洲人成色在线观看| 亚洲精品无码专区2| 中文亚洲AV片在线观看不卡| 亚洲AV综合色区无码一区爱AV | 2019亚洲午夜无码天堂| 亚洲日韩精品无码专区加勒比| 理论亚洲区美一区二区三区| 国产亚洲一区二区三区在线不卡|