永久免费观看国产裸体美女_亚洲不卡av不卡一区二区_亚洲国产精品国语在线_99精品偷拍视频一区二区三区_色播在线播放_亚洲不卡免费视频

請輸入關鍵字
搜索

太初資訊

跨越技術壁壘,打破固有模式,用智慧重新鏈接關系。

【元來如此】第一章——大模型技術 · 起航&推理篇(內含產品試用申請)!

TECORIGIN

大模型技術

起航&推理篇


                                 正文共:3149字 15圖

預計閱讀時間:5分鐘

作者:思成

軟件生態中心 · 應用平臺部


前言


當前大家討論的ChatGPT、LLaMA等都屬于LLM(Large language model大語言模型),讓我們簡單回顧一下LLM的前世今生。




LM 語言模型

說到LLM就不得不提LM(language model語言模型)。語言模型是這樣一個模型:對于一句話(由詞組成的序列),它能夠計算出這句話出現的概率。為了讓模型給出這樣的概率P,簡單的方法就是將其用概率論中的方法進行展開,這樣只要想辦法得到每一個P(xm|x1x2...xm-1)即可。這樣從另一個角度來看,如果我們可以找到一個模型:它能夠計算P(xm|x1x2...xm-1),那么它就是一個語言模型。      



圖1 什么是語言模型


基于這樣的認知,不難想到我們只需要找到一個足夠大的語料庫,通過統計后就可以得到一個基本的“語言模型“。但是,可以想象基于統計的方法會遇到不可避免的稀疏問題,哪怕我們簡化上面的統計量,假設每個詞出現的概率只與前n個詞有關(n-gram)。

在這之后出現了基于神經網絡的語言模型,通過詞向量(word embedding)和神經網絡來計算上面的P(xm|x1x2...xm-1),這里以基于FnnLM和RNN兩大類模型頗具代表性。



圖2 基于統計的語言模型和基于神經網絡的語言模型




LLM 大語言模型


2017年由Google提出《Attention is All you need》[1]Transformer模型。Transformer模型主體由Encoder(編碼器)和Decoder(解碼器)兩部分組成。其中Encoder更擅長NLU(自然語言理解)任務,Decoder更擅長NLG(自然語言生成)任務。



圖3 基于海量數據和大參數量的語言模型

在這之后的3-4年中,各大公司不斷入局,先后提出了眾多大語言模型[2]。其中OpenAI僅使用Transformer中的Decoder部分,提出了GPT模型系列,并基于此模型結構作為基礎提出了今天耳熟能詳的ChatGPT。區別與LM的顯而易見的特點就是模型參數量的不斷增加,以及訓練數據的不斷增加。



圖4 大語言模型近3年發展時間線,引用自[2]


大模型的應用


LLM可以應用在搜索系統、自動對話系統、機器翻譯、文本摘要、問答系統、輔助編程等眾多領域。能夠根據問題生成符合語法規則和語義的自然語言文本。



圖5 大模型應用廣泛的下游任務,引用自[3]



圖6 大語言模型在搜索問答中的應用



圖7 大語言模型在輔助編程上的應用



圖8 大語言模型在智能客服場景上的應用


當大家都去挖金礦時,應該去賣鏟子。如果將大模型比作金子,那么鏟子是什么呢?答案是算力+推理服務,接下來我們來看Tecorigin準備了什么樣的“鏟子”。


大模型推理核心技術


下面我們將從幾方面來介紹大模型推理技術以及Tecorigin為了降低用戶成本,提高推理性能都做了什么。

對于大模型推理而言,有以下4個關鍵衡量維度。


1

Latency(時延),反應了在接收到用戶請求之后,多久得到響應。


2

Throughput(吞吐),反應了每秒鐘可以輸出多少個token,對于大眾的閱讀速度來看,一般我們認為每秒鐘 20-30 tokens是一個可接受的性能。


3

Utilization(利用率),反應了在線推理引擎必須要盡可能的提高利用率,達到滿負載,否則會增加用戶的成本。



4

Accuracy(精度),反應了推理結果的準確性,毋庸置疑,一味的追求速度和利用率,降低了Accuracy是不合理的。


在明確了目標之后,我們再來明確大模型推理的核心挑戰。

Large memory footprint(大量顯存開銷),GPT/LLaMA等大模型的模型結構與解碼方式直接導致了在推理過程中會產生大量的顯存開銷,由Parameter(參數)和Intermediate states(中間激活值)組成。

Low parallelizability(低并行度),當前主流自然語言模型均是Autoregressive(自回歸),這種自回歸的模式導致了非常低的并行度。



圖9 大語言模型推理過程


基于以上的目標和挑戰,為了更好的支持用戶并提高大模型推理性能,Tecorigin從下面幾方面入手。


Large  盡可能小的Memory footprint



支持多種推理框架

基于不同的業務場景,需要靈活選擇一個合適的推理框架。當前比較主流的推理框架有vLLM,Fastertransformer+Triton Server,TGI(Text generation inference)等。


其中vLLM框架支持PagedAttention[3]和Continuous batching[4]等技術。


PagedAttention技術可以讓KV Cache通過固定大小的“頁”來實現顯存的分配而不需要框架分配max_seq_len長度的連續內存,大大降低了不必要的顯存開銷,從而極大的提升了推理更大batch的可能,這意味著更高的Throughput。



圖10 PagedAttention算法示意,引用自[4]


Continuous batching在進行batch>1的推理場景下,一旦batch中的某一個序列推理完成,那么就可以在之后插入一個新序列,從而充分利用GPU使用率。



圖11 Continuous batching算法示意,引用自[5]


Fastertransformer是一個用于加速基于Transformer模型結構的模型推理加速引擎。通過高度優化的融合算子、Shared buffer(共享緩沖)、KV Cache等核心技術極大提高了推理Latency。
 
TGI當前也支持了continuous batching和paged attention等關鍵技術。


多卡模型并行推理

下圖展示了基于模型并行的大模型推理切分方案,通過模型縱向切分,充分利用多卡訪存/算力,并深度優化通信算子,高效降低多卡并行推理帶來通信開銷。



圖12 模型并行推理模型切分方案示意


Tecorigin開發了Teco-Inference-Engine,對基于Transformer的大模型推理算子進行了積木化式的深度優化。可以像拼樂高積木一樣,靈活高效的支持以下模型的單卡/多卡推理。


同時,我們也開發了Shard buffer、KV Cache等核心技術減少顯存開銷和提高推理性能。以此作為后端,前端接入了vLLM/Triton Server等主流框架。

另一個方面,常見的作法包括模型量化、模型蒸餾、模型剪枝等,其中模型蒸餾和模型剪枝雖然可以很好的減少模型參數量從而提升推理性能,但是在大模型時代也會帶來一些顯著的問題。

對于模型蒸餾,考慮到訓練一次大語言模型的成本開銷是巨大的,同樣在做模型蒸餾的過程中也不可避免的引入了硬件、人力成本。所以在大語言模型場景下實際通過模型蒸餾的方式減少模型參數量的方式還很少。

對于模型剪枝,會破壞完整的dense(稠密)參數,引入sparse(稀疏)參數,這樣的方式在推理硬件和工程上也需要額外的工作量才會帶來性能的提升。

最后模型量化的方案,這個方案也是當前大模型推理領域被用戶選擇多的方式。



圖13 模型量化、模型蒸餾、模型剪枝算法示意,來自網絡


模型量化。模型量化通過將weight(權重)或者activation(激活值)進行低精度(int8/4/3)表示,通過減少訪存量以及Kernel(核函數)優化等手段加速推理。模型量化在帶來性能提升的同時往往都會帶來一定的精度折損,為了衡量這部分精度折損,學術界更多的用PPL(perplexity 困惑度)指標用于衡量量化之后的精度折損,在我們的實驗中發現PPL并不是一個很完美的指標,原因是PPL是一種衡量句子流暢性的指標,這樣量化后的模型雖然可能是流暢的,但是從嚴格意義上是否和量化之前的模型推理效果是否一致是無法簡單通過PPL指標表現出來。
 
基于這樣的原因,我們提出了用BLEU值輔以評估模型量化后的精度,更高質量的保障用戶推理結果精度。這里我們將模型量化當作一個“翻譯”任務,源語是在高精度(fp32)下進行的模型推理結果,目標語是在低精度(fp16/int8/int4/int3)下進行的模型推理結果。
 
通常,PTQ(Post-Training Quantization 后訓練量化)和QAT(Quantization-Aware Training 量化感知訓練)是兩種常見的量化方案。PTQ可以直接在模型上進行量化,不需要引入額外的訓練。QAT需要在訓練過程中應用量化方案,這雖然通常來說有更好的量化精度,但是也需要額外的訓練代價。
 
GPTQ是PTQ中的一種方案,下表給出了我們基于開源的Baichuan-7B模型進行模型量化之后的效果。


GPTQ(weight only)


除此之外……

Low 盡可能高的parallelizability


為了解決Low parallelizability,我們在8月份提出了RecycleGPT[6],一種可重復利用模型狀態加速解碼過程的模型,在近乎無效果損失的前提下,實現了1.4倍的推理加速,并引起了廣泛關注。



圖14 RecycleGPT算法示意


RecycleGPT[6]在傳統的自回歸語言模型基礎上增加了一個Recyclable Module(再利用模塊)。這個結構很好的回收了當前step輸出的隱狀態并再利用于Next Next token(下下個令牌)生成。通過這樣的方式提高了一次推理的利用率,從而端到端提升模型的推理性能。





圖15 RecycleGPT得到廣泛關注


至此,本文簡要介紹了大語言模型的近3年發展現狀,以及大模型推理的核心挑戰及其對應的主流優化方案,并簡要介紹了Tecorigin在大模型推理上已有的技術能力,《大模型技術·起航&推理篇》到此結束。未來,會有更多的大模型技術跟大家一起分享、交流、討論。


入局者,厚積方可薄發。太初元碁Tecorigin將持續深耕產業創新沃土,與時代發展同頻共振,共育數智卓越人才,憑借深厚技術沉淀與領先研發實力,驅動算力之輪駛向未來智能世界!

免費試用申請


如果您對我們的產品感興趣,可點擊底部“閱讀原文”,進行試用申請;

復制下方鏈接:https://shimo.im/forms/KrkElNNyO7uWeRqJ/fill 在瀏覽器中打開,即可搶先試用!


參考文獻

[1] [1706.03762] Attention Is All You Need (arxiv.org)

[2] [2303.18223] A Survey of Large Language Models (arxiv.org)

[3] [2108.07258] On the Opportunities and Risks of Foundation Models (arxiv.org)

[4] [2309.06180] Efficient Memory Management for Large Language Model Serving with PagedAttention (arxiv.org)

[5] Achieve 23x LLM Inference Throughput & Reduce p50 Latency (anyscale.com)

[6] [2308.03421] RecycleGPT: An Autoregressive Language Model with Recyclable Module (arxiv.org)





主站蜘蛛池模板: 久久不见久久见免费视频6无删减 | 久久国产福利国产秒拍 | 国产亚洲精品久久久久久牛牛 | 亚洲好骚 | 天堂网在线WWW最新版资源 | 国产激情性色视频在线观看 | 亚洲一二区三区 | 男生操女生免费网站 | 国产精品一区二区免费 | 久热官网| 91免费观看 | 成人午夜免费无码福利片 | 日本高清色WWW网站色噜噜噜 | 国产一区二区三区免费在线观看 | 日韩精品无码AV成人观看 | 特级毛片A级毛片免费观看网站 | 无码专区亚洲avl | 成熟女人牲交片免费观看视频 | 伦理精品一区二区三精品 | 精品资源成人 | 伊人激情综合 | 日韩欧美多p乱免费视频 | 中文字幕精品一区二区三区精品 | 欧美va亚洲va | 互换人妻500部 | 亚洲精品中文幕一区二区 | 黑色蕾丝丝袜麻麻好紧好爽 | 亚洲AV永久无码天堂网国产 | 天天槽夜夜槽槽不停 | 久久人人爽av | 香蕉视频最新网址 | 黄动漫在线免费观看 | 国产片淫乱一级毛片视频 | 亚洲精品国产精品国自产网站按摩 | 久久一区二区三区四区 | 被猛男伦流澡到高潮h麻豆 无码在线观看一本二本 | 91大神福利视频 | 亚洲理论片在线观看 | 爱爱一级片 | 日韩美a一级毛片国产 | 亚洲精品资源 |