華為“天才少年”在研究什么?看謝凌曦揭秘千億參數盤古大模型

      網友投稿 1072 2025-04-02

      “每個人都生活在特定的時代,每個人在特定時代中的人生道路各不相同。在同一個時代,有人慨嘆生不逢時,有人只愿安分……”這是2021年北京高考命題作文“論生逢其時”的開頭。

      答題的是一位既沒上過小學,也沒讀過初中、高中的特殊考生。他只是在短時間內學習了大量人民日報的文章,然后憑借自己的閱讀理解、文本聯想以及語言生成能力,寫出這篇看似“像模像樣”的高考作文。

      是的,它是一個AI——華為云盤古大模型,就在昨天2021世界人工智能大會(WAIC2021)上剛被評選為大會的“鎮館之寶”!在現場,觀眾可與大模型互動,直接給對方出題。比如,一句“明明明明明白白白喜歡他,但他就是不說,他很高冷。”這句話里,“明明”顯示一個人名,而后又作為形容詞,且整句需要斷句。但當記者向大模型提問 “白白喜歡誰?”時,大模型很快回答“明明”。回答正確!

      雖然盤古沒有寒窗苦讀十幾年,但它也經歷了上億參數的“學習”。

      我們再來看個例子,比如理解下面這兩句話:

      小明在讀書,通過不斷堅持,克服各種困難,最后讀完了。

      小紅在畫畫,期間遇到了很多困難,最后也完成了這副畫作。

      雖然上面兩句話的人物和事件都不相同,但盤古也能和我們人類一樣,從中提取一個相同的含義:鍥而不舍。這個能力其實已經在華為開發者大會(Cloud)2021現場有所展示。我們不禁想問道盤古大模型是如何做到如此“聰慧”的呢?

      為了更深入地理解千億參數的華為云盤古大模型,華為云社區采訪到了華為云EI盤古團隊高級研究員謝凌曦。謝博士以非常通俗的方式為我們娓娓道來了盤古大模型研發的“前世今生”,以及它背后的深刻往事。

      華為云EI盤古團隊高級研究員 謝凌曦

      何為大模型:AI落地千行百業的必由之路

      神話傳說里,盤古開天辟地,宇宙從一片混沌變得有序。談及盤古大模型,謝凌曦從人工智能的誕生開始說起。

      “上世紀50年代,AI概念被提出,人們使用人工設計規則的方式去定義AI;到了80年代,在大數據的浪潮下,人們通過訓練數據模型的方式來實現AI;后期隨著數據規模擴大以及算力的發展,深度學習掀起新浪潮,各種AI模型不斷涌現。”

      “直到近兩年,我們開始將跨領域的知識整合到AI模型中,基于Transformer結構的各種大模型出現,包括OpenAI的GPT-3,以及盤古大模型。它們打開了深度學習模型的規模與性能共同發展的局面,達到了深度學習領域新的高度。”謝凌曦說道。

      過去十年,AI 算法對計算資源的需求增長了40萬倍,神經網絡從小模型到大模型已經成為了必然的發展趨勢。大模型能夠解決 AI 模型定制化和應用開發碎片化,它可以吸收海量的知識,提高模型的泛化能力,減少對領域數據標注的依賴。

      大模型一方面激活了深度神經網絡對大規模無標注數據的自監督學習能力,同時對于 AI 框架的深度優化和并行能力都有很高的要求,是深度學習框架下將AI做到極致的集大成者。“從傳統方法到深度學習,這是一次大的跳躍,而在深度學習這個臺階上,大模型已經站在了最前面,等待著下一個臺階的出現。”

      當前盤古系列超大規模預訓練模型,包括NLP大模型、CV大模型、多模態大模型、和科學計算大模型。 模型大意味著它吸收了海量數據知識,以盤古NLP大模型為例,它學習了40TB的中文文本數據;盤古CV大模型則包含了30億+參數。這些數據提高了大模型的泛化能力,提升算法對新鮮樣本的適應能力,從而學到隱含在數據背后的規律,減少對領域數據標注的依賴。

      謝凌曦進一步解釋道,一方面大模型可以從無標注數據上更加通用的將知識遷移到目標任務上,進而提升任務性能;另一方面,通過預訓練過程學習到更好的參數初始點,使得模型在目標任務上只需少量數據就能達到不錯的效果。

      華為“天才少年”在研究什么?看謝凌曦揭秘千億參數盤古大模型

      當大模型可以從小數據樣本中學習更多,就能幫助我們打開走向通用AI的大門,它可以解決AI模型定制化和應用開發碎片化的難題。

      謝凌曦給我們算了一筆賬,他認為AI算法落地難不是因為它無法解決實際問題,而是應用場景太狹窄,每個痛點都需要定制化開發,從而導致投入的成本和人力過高。

      一旦場景變化,整個模型可能都需要重新開發。而大模型是一種工業化AI開發的新模式,可以解決小模型的定制化難題,讓一個模型可以應用到多個場景中,讓AI真正落地到千行百業中。

      所以,作為這個時代發展的必然產物,大模型值得我們下功夫去挖掘,去探索深度學習、乃至AI的下一個階段會是怎樣的形態。

      在這之前,我們需要先弄明白大模型是如何被煉成的。

      不止參數,盤古NLP和CV大模型有更多“絕招”

      谷歌1月份提出1.6萬億參數大模型Switch Transformer;

      英偉達、斯坦福聯合MSR,共同訓出了10000億參數的GPT;

      智源研究院發布1.75萬億參數大模型悟道2.0;

      ……

      在各種新聞報道中,我們很容易將大模型的突破歸功于億級別的參數。

      謝凌曦推翻了這個刻板印象:“量大和多樣是大模型的必然要求,但參數并不是衡量模型能力的最佳指標。如果將大模型訓練的中間狀態都存儲下來,做個簡單的融合,我們甚至可以把模型的參數量乘以一個非常的數,甚至可以說現在已經有百萬億、千萬億參數的模型,但這并不會對模型的效果有很大的幫助。因此,參數量這個指標,并不是大模型強弱的最終評定標準。”

      大模型是一種統籌了數據預處理、模型架構、算法訓練與優化的一套完整體系,即便有足夠的算力、原始數據、原始模型,也并不意味能夠做出真正跑得通的大模型,這其中非常考驗技術研發和協同能力。

      但毋庸置疑的是,數據越多,大模型學到的也就越多。“只要你給它足夠多的數據,讓他‘死記硬背’,它的理解能力確實會增強。”什么樣的數據決定了模型有什么樣的基本效果。謝凌曦表示,基于大量的參數,模型能夠學會數據之間的關系,抽象出邏輯能力,更加智能化。

      盤古NLP大模型

      在最近的 CLUE 榜單上,盤古的NLP模型在總榜、閱讀理解排行榜和分類任務排行榜上都位列第一,總榜得分比第二名高出一個百分點。為了說明盤古的NLP模型是如何在理解能力上接近人類的,回到文章的開頭,謝凌曦舉了我們開篇提到的那個“鍥而不舍”的例子解釋:

      小明在讀書,通過不斷堅持,克服困難最后成功了。

      小紅在畫畫,期間遇到了很多困難,最后也完成了這副畫作。

      人類可以很容易的通過邏輯判斷能力知道兩件事表達的是同一個意思:鍥而不舍,但大模型需要大量的數據投喂和學習,去捕捉元素與元素之間的關系,比如兩段文本之間的關系,幾段文本之間,哪兩段之間關系更近一些,才能得出邏輯性的判斷結論。

      還是上面的例子,如果把2改成為“小明在讀一本書,期間遇到很多困難,可最后也沒能讀完”,這樣1和2的文字非常相似,但其實兩者表達的是完全不同的含義。

      大模型需要學會判斷這種關系,謝凌曦解釋道:“表征(從文本和圖像中直接抽取的簡單特征)和語義之間的關聯性是極其復雜的,人能夠理解,但讓計算機去理解并建立計算模型就非常困難,大模型就希望以大數據的方式以及堆砌大量可訓練參數去完成這件事。”

      如果想要大模型理解我們的邏輯世界,參數之外的功夫也至關重要。

      首先,千億參數的大模型每優化一次就會耗費巨大的成本,牽一發而動全身。所以謝凌曦和團隊選擇在預訓練階段加入基于prompt的任務,降低微調難度,解決以往大模型為不同行業場景進行微調的困難。在下游數據充足時,微調難度的降低使得模型可以隨著數據變多而持續優化;在下游數據稀缺時,微調難度的降低使得模型的少樣本學習效果得到顯著提升。

      盤古NLP大模型架構

      盤古CV大模型

      針對盤古CV大模型,謝凌曦同樣先舉了一個例子:如何區分白色貓和白色狗的圖片?人類看到這兩張圖片能一眼識別出來哪只是貓,哪只是狗,那么大模型面對這些是如何處理的呢?

      “我們需要讓模型在訓練的過程中,了解這些樣例之間真正強關聯性的東西。” 謝凌曦強調圖像中非常重要的一個東西就是層次化的信息。“在判斷圖像的過程中,首先要把握好圖片中層次化的信息,能夠快速的定位到圖片中哪部分信息是起決定作用的,讓算法以自適應的方式去關注比較重要的地方或內容,這樣就容易捕捉樣本之間的關系。在這兩張圖片中,很明顯白色不是最重要的信息,動物才是圖片中起決定性的信息。”

      盤古CV大模型架構

      另外,為了解決模型大,數據多帶來的學習效率低,表征性能弱的問題,盤古CV大模型在預訓練階段主要集中在數據處理、架構設計和模型優化三個階段進行優化。目前盤古CV大模型在Image Net 1%、10%數據集上的小樣本分類精度上均達到目前業界最高水平。

      在CV大模型中,除了應用一些業界通用的算法,其中也有華為自研的算法,比如在視覺中強行給模型注入一些層次化的信息,讓模型能夠學的更好。

      而每個自研算法的的背后,其實都是團隊解決每一個困難之后的寶貴經驗總結。

      大模型研發很難,還好有他們

      在整個盤古大模型的研發過程中,難點很多,比如上文提到的獨創算法,因為除了架構和數據,算法是非常核心的技術。

      謝凌曦詳細談了談其中的一個技術難點:無論是文本信息,還是圖像信息,表征上看起來相似的東西,語義理解上卻截然不同。

      “我們從問題出發,發現視覺特征是一個層次化的捕捉過程,表征的一些特征更多的是集中在淺層特征里面,但到了語義就更多體現在深層特征里面。所以,需要我們在不同層面上把這些特征對齊,這樣才能學的更好。同樣,在NLP上需要將模型的注意力放在一個最合適的地方。這個關鍵點也是通過復雜的神經網絡尋找到的,而并非隨便在一段文字中利用算法去找到關鍵點。”

      這是一個很通俗的解釋,技術細節相對會更復雜和難以抽象化描述。但這個問題也只是冰山上的一角,整個大模型的研發中,謝凌曦和團隊要不斷去挖掘表象問題的本質,解決類似的技術難題。

      另一個比較棘手的問題是模型的調試運行。為了從預訓練獲取更多的知識,盤古大模型的數據肯定會越來越大,對底層的硬件平臺性能要求更高。此時,預訓練的效果,看的也已經不是模型本身,而是基礎設施構建得是否足夠優秀。

      比如運行大模型需要足夠的機器提供充足的算力,但一臺機器最多只能安裝8個GPU卡。NLP大模型需要上千個GPU卡,即使是較小的CV大模型,也需要128塊GPU同時運行,所以必須有一個非常好的機制去合理調配資源。

      巧婦難為無米之炊,最開始的時候謝凌曦也很苦惱,誰來支撐大模型的運行呢?實踐證明,華為云為盤古提供的可多機多卡并行的云道平臺起了大作用。云道平臺能夠輕松分配資源,避免因基礎設施問題導致的盤古研發進度受阻,它同時可以將數據,以最合適的格式存儲在服務器上,以便在使用過程中更有效的讀取。

      不僅如此,大模型的困難也難在工程上,華為CANN、MindSpore框架、ModelArts平臺協同優化,充分釋放算力,為盤古大模型提供了強大的背后支撐:

      針對底層算子性能,基于華為CANN采用了算子量化、算子融合優化等技術,將單算子性能提升30%以上。

      華為MindSpore創新性地采用了“流水線并行、模型并行和數據并行”的多維自動混合并行技術,大幅降低了手動編碼的工作量,并提升集群線性度20%。MindSpore開源框架加持,如何「煉出」首個千億參數、TB級內存的中文預訓練語言模型?細致解讀了這些關鍵技術。

      ModelArts平臺提供E級算力調度,同時結合物理網絡拓撲,提供動態路由規劃能力,為大模型訓練提供了最優的網絡通信能力。

      但眾所周知,大模型之所以大,根源在于“數據多、模型大”,這就帶來模型的訓練成本高。以GPT-3為例,訓練一次成本是1200萬美金。謝凌曦感慨道,“大模型調參本身就非常困難,每一次模型訓練之前,都需要事先在很多小的場景中做驗證工作。每一次模型的訓練都需要確保萬無一失,不能出現已經開始訓練,卻有一個Bug存在的現象”。

      為“應用”而生,盤古賦能更多用戶

      大模型訓練在各方面突破,也為缺乏大量數據的行業鋪上接入智能時代的軌道。正如華為云人工智能領域首席科學家、IEEE Fellow田奇教授在發布盤古大模型所提到的,盤古大模型是為各行業的應用而生,盤古具備前所未有的泛用性,無論是2B場景或是2C場景。

      行業知識來源于行業數據,盤古團隊使用了大量行業語音和文本數據,借助這些數據進行微調,模型的行業特定意圖和知識理解能力得以大幅提高。

      以盤古CV大模型為例,其在電力巡檢行業中表現出超強的應用能力。它利用海量無標注電力數據進行預訓練,并結合少量標注樣本微調的高效開發模式,節省人工標注時間。 在模型通用性方面,結合盤古搭載的自動數據增廣以及類別自適應損失函數優化策略,極大地降低了模型維護成本。

      謝凌曦還談到,除了行業的應用,面向開發者方面,華為云的AI專區,目前有AI編程Python等六大實戰營供大家免費學習;此外,盤古大模型正在逐步上線到AI Gallery(AI資產共享社區),后期會陸續開啟邀測制,請大家敬請期待。 在平臺上盤古會開發出一些比較通俗易用的工作流:如果你是有一定基礎的開發人員,可以從工作流中做更多的定制化開發,更好地釋放預訓練模型的能力;如果你只是一個AI開發小白,想用大模型做簡單的AI開發,盤古也會給你更加通俗易懂的界面,讓大家用一些拖拉拽的方式去實現。后續盤古會針對開發者推出系列的課程,指導開發者基于盤古大模型在實踐場景中開發應用。

      另一方面,盤古也希望和開發者共成長。“大模型只是一個抓手,讓它應用到實際場景中。不僅更好的幫助用戶提高訓練的進度和縮短訓練的時間,而且模型上的應用數量增多,用戶的成本自然而然就降低了。” 謝凌曦表示,盤古的發展單靠我們團隊是遠遠不夠的,我們還需要和開發者一起建設好這個生態。

      最后

      談到盤古大模型的未來,謝凌曦有個簡單的小目標——把盤古推向下一個技術爆發點。AI大模型是深度學習的最高階段,往下走可能是一條平的直線,大家都在等待跳躍的那一天。華為云一直在努力,用各種原創技術去推動,解決AI開發者實際會遇到的問題,最本質的目的是賦能千行百業的AI落地。

      道阻且長,行則將至。

      正如盤古大模型的名字一樣,華為也希望以大模型為抓手,把AI推向一個前所未有的高度,讓我們往下一代AI去走,劈開AI未來道路上的“混沌”。

      AI AI開發平臺ModelArts 深度學習

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:工作流程軟件
      下一篇:怎么顯示PDF頁數? 選擇性打印PDF,怎么能看到頁數?(pdf怎么看總頁數)
      相關文章
      国产AV无码专区亚洲AWWW| 亚洲一区二区三区高清| 亚洲欧洲日韩国产综合在线二区| 亚洲av无码专区在线观看亚| 亚洲乱码一二三四区乱码| 亚洲国产精品成人综合久久久| 久久精品国产亚洲AV嫖农村妇女| 国产美女亚洲精品久久久综合| 中文字幕精品亚洲无线码二区| 在线A亚洲老鸭窝天堂| 久久亚洲国产成人影院网站| 自拍偷自拍亚洲精品情侣| 亚洲日韩国产精品第一页一区| 亚洲精品无码久久久久| 亚洲成亚洲乱码一二三四区软件| 国产∨亚洲V天堂无码久久久| 亚洲国产另类久久久精品小说 | 亚洲二区在线视频| 亚洲一区无码中文字幕乱码| 7777久久亚洲中文字幕| 亚洲欧美日韩中文无线码 | 亚洲av无码无线在线观看| 在线精品自拍亚洲第一区| 亚洲高清免费视频| 亚洲色图综合在线| 亚洲人成色777777在线观看| 久久精品国产精品亚洲蜜月| 91在线精品亚洲一区二区| 亚洲午夜电影在线观看| 亚洲日本一线产区和二线| 欧洲亚洲综合一区二区三区| 精品亚洲成α人无码成α在线观看 | 亚洲av无码精品网站| 久久亚洲精品无码AV红樱桃| 亚洲午夜精品一区二区公牛电影院| 亚洲五月综合缴情婷婷| 亚洲av中文无码字幕色不卡| va亚洲va日韩不卡在线观看| 亚洲一区二区三区香蕉| 午夜亚洲国产理论秋霞| 亚洲三级中文字幕|