永久免费观看国产裸体美女_亚洲不卡av不卡一区二区_亚洲国产精品国语在线_99精品偷拍视频一区二区三区_色播在线播放_亚洲不卡免费视频
首頁
產(chǎn)品技術(shù)
解決方案
開發(fā)者
文檔中心
新聞資訊
加入我們
關(guān)于太初
請輸入關(guān)鍵字
語言
China - 簡體中文
Global - English
搜索
首頁
產(chǎn)品技術(shù)
解決方案
開發(fā)者
文檔中心
新聞資訊
加入我們
關(guān)于太初
China - 簡體中文
Global - English
模型庫
申請試用
LLaMA-65B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于 Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096。現(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
LLM
多模態(tài)
CV
語音
NLP
LLM
相關(guān)模型數(shù):
LLaMA-65B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于 Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096。現(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
BLOOM-7B
Inference
BLOOM 是一種自回歸大型語言模型 (LLM),經(jīng)過訓(xùn)練,可使用工業(yè)規(guī)模的計算資源根據(jù)大量文本數(shù)據(jù)的提示繼續(xù)文本。因此,它能夠以 46 種語言和 13 種編程語言輸出連貫的文本。現(xiàn)70億參數(shù)量的Bloom模型已支持在太初卡上推理使用。
GPT-2-13B
Inference
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出。現(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上推理使用。
GPT-2-13B
Pretrain
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出。現(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上訓(xùn)練使用。
GPT-2-13B
Finetune
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出。現(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上微調(diào)使用。
GPT-NeoX-20B
Inference
GPT-NeoX是EleutherAI訓(xùn)練的自回歸大語言模型,該模型在學(xué)術(shù)、工業(yè)和政府實驗室有廣泛應(yīng)用。現(xiàn)200億參數(shù)量的GPT2-NeoX模型已支持在太初卡上推理使用。
多模態(tài)
相關(guān)模型數(shù):
CV
相關(guān)模型數(shù):
Resnet50-v1.5
Pretrain | PyTorch
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計算機視覺領(lǐng)域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
Resnet50-v1.5
Inference
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計算機視覺領(lǐng)域。現(xiàn) ResNet50 v1.5 已支持在太初卡推理使用。
Resnet50-v1.5
Pretrain | PaddlePaddle
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計算機視覺領(lǐng)域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PaddlePaddle框架)使用。
Yolov5-m
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進,能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5m(21.2M 參數(shù))已支持在太初卡推理使用。
Yolov5-l6
Pretrain | PyTorch
Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進,能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
Yolov5-l6
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進,能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡推理使用。
語音
相關(guān)模型數(shù):
Wav2Vec 2.0-base
Pretrain | PyTorch
Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語音識別的能力,能夠支持多種語言識別。現(xiàn)Wav2Vec-2.0-base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
Wav2Vec 2.0-base
Inference
Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語音識別的能力,能夠支持多種語言識別。現(xiàn)Wav2Vec-2.0-base已支持在太初卡推理使用。
NLP
相關(guān)模型數(shù):
BERT-Base
Pretrain | PyTorch
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型。現(xiàn)BERT-Base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
BERT-Base
Inference
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型。現(xiàn)BERT-Base已支持在太初卡推理使用。
抱歉,沒有找到“xxx”相關(guān)的結(jié)果,請嘗試其他搜索詞
申請試用
完成下方表格填寫后,太初技術(shù)專家會在審核初步通過后與您聯(lián)系。如果最終完成審核,您可以訪問太初線上環(huán)境體驗太初加速卡的性能。
如有其他媒體合作或咨詢,也可以通過
pr@tecorigin.com
聯(lián)系太初市場商務(wù)團隊
提交成功!
請保持手機號碼暢通 我們將盡快與您聯(lián)系
請?zhí)顚懴卤?
我們將盡快與您聯(lián)系
請選擇您的行業(yè)
金融
零售
醫(yī)療
餐飲
航天
農(nóng)業(yè)
制造
電信
建筑/工程
智慧城市
智慧交通
科學(xué)計算
公共部門
消費互聯(lián)網(wǎng)
媒體與娛樂
硬件/半導(dǎo)體
其他
請選擇您的職位
首席信息官
首席財務(wù)官
首席信息官
首席信息安全官
首席技術(shù)官
顧問
產(chǎn)品經(jīng)理
數(shù)據(jù)分析師
數(shù)據(jù)科學(xué)家
金融分析師
開發(fā)人員/工程師
IT專家
電影/視頻編輯
游戲玩家
平面設(shè)計師/動畫師
工業(yè)設(shè)計師/產(chǎn)品設(shè)計師
行業(yè)分析師
營銷專家
項目經(jīng)理
風(fēng)險投資
解決方案架構(gòu)師
教授/講師
學(xué)術(shù)研究員
學(xué)生
其他
請選擇申請試用原因
公司業(yè)務(wù)
技術(shù)交流
學(xué)術(shù)研究
個人興趣
其他
獲取驗證碼
用戶協(xié)議
和
隱私條款
立即提交
完成下方表格填寫后,太初技術(shù)專家會在審核初步通過后與您聯(lián)系。如果最終完成審核,您可以訪問太初線上環(huán)境體驗太初加速卡的性能。
如有其他媒體合作或咨詢,也可以通過
pr@tecorigin.com
聯(lián)系太初市場商務(wù)團隊
主站蜘蛛池模板:
寻甸
|
平和县
|
惠东县
|
神池县
|
察雅县
|
安康市
|
马山县
|
巴马
|
定西市
|
紫云
|
崇阳县
|
长海县
|
宁海县
|
上杭县
|
济宁市
|
祥云县
|
荆门市
|
南安市
|
正定县
|
徐汇区
|
长宁县
|
汝城县
|
紫云
|
庆阳市
|
镇坪县
|
化州市
|
巴东县
|
扎赉特旗
|
阿克
|
桃园市
|
岐山县
|
河南省
|
肇源县
|
柳江县
|
汶川县
|
靖州
|
吉林省
|
紫云
|
泗洪县
|
建阳市
|
朔州市
|