永久免费观看国产裸体美女_亚洲不卡av不卡一区二区_亚洲国产精品国语在线_99精品偷拍视频一区二区三区_色播在线播放_亚洲不卡免费视频

請輸入關(guān)鍵字
搜索
模型庫
LLaMA-65B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于 Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096。現(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
LLM
相關(guān)模型數(shù):
  • LLaMA-65B
    Inference
    LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
  • LLaMA-7B
    Inference
    LLaMA是大模型研究領(lǐng)域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎(chǔ)上訓(xùn)練的。現(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
  • Baichuan-7B
    Inference
    Baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型。基于 Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓(xùn)練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096。現(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
  • Baichuan-13B
    Inference
    Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
  • BLOOM-7B
    Inference
    BLOOM 是一種自回歸大型語言模型 (LLM),經(jīng)過訓(xùn)練,可使用工業(yè)規(guī)模的計算資源根據(jù)大量文本數(shù)據(jù)的提示繼續(xù)文本。因此,它能夠以 46 種語言和 13 種編程語言輸出連貫的文本。現(xiàn)70億參數(shù)量的Bloom模型已支持在太初卡上推理使用。
  • GPT-2-13B
    Inference
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出。現(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上推理使用。
  • GPT-2-13B
    Pretrain
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出。現(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上訓(xùn)練使用。
  • GPT-2-13B
    Finetune
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出。現(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上微調(diào)使用。
  • GPT-NeoX-20B
    Inference
    GPT-NeoX是EleutherAI訓(xùn)練的自回歸大語言模型,該模型在學(xué)術(shù)、工業(yè)和政府實驗室有廣泛應(yīng)用。現(xiàn)200億參數(shù)量的GPT2-NeoX模型已支持在太初卡上推理使用。
多模態(tài)
相關(guān)模型數(shù):
CV
相關(guān)模型數(shù):
  • Resnet50-v1.5
    Pretrain | PyTorch
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計算機視覺領(lǐng)域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • Resnet50-v1.5
    Inference
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計算機視覺領(lǐng)域。現(xiàn) ResNet50 v1.5 已支持在太初卡推理使用。
  • Resnet50-v1.5
    Pretrain | PaddlePaddle
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡(luò) (CNN),常用于計算機視覺領(lǐng)域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓(xùn)練(基于PaddlePaddle框架)使用。
  • Yolov5-m
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進,能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5m(21.2M 參數(shù))已支持在太初卡推理使用。
  • Yolov5-l6
    Pretrain | PyTorch
    Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進,能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • Yolov5-l6
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基礎(chǔ)上,并引入了新功能和改進,能夠快速、準(zhǔn)確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務(wù)的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡推理使用。
語音
相關(guān)模型數(shù):
  • Wav2Vec 2.0-base
    Pretrain | PyTorch
    Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語音識別的能力,能夠支持多種語言識別。現(xiàn)Wav2Vec-2.0-base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • Wav2Vec 2.0-base
    Inference
    Wav2vec使用自監(jiān)督的訓(xùn)練方式從未標(biāo)記的訓(xùn)練數(shù)據(jù)中訓(xùn)練獲得語音識別的能力,能夠支持多種語言識別。現(xiàn)Wav2Vec-2.0-base已支持在太初卡推理使用。
NLP
相關(guān)模型數(shù):
  • BERT-Base
    Pretrain | PyTorch
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型。現(xiàn)BERT-Base已支持在太初卡訓(xùn)練(基于PyTorch框架)使用。
  • BERT-Base
    Inference
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預(yù)訓(xùn)練模型。現(xiàn)BERT-Base已支持在太初卡推理使用。
抱歉,沒有找到“xxx”相關(guān)的結(jié)果,請嘗試其他搜索詞

申請試用

完成下方表格填寫后,太初技術(shù)專家會在審核初步通過后與您聯(lián)系。如果最終完成審核,您可以訪問太初線上環(huán)境體驗太初加速卡的性能。

請?zhí)顚懴卤? 我們將盡快與您聯(lián)系

完成下方表格填寫后,太初技術(shù)專家會在審核初步通過后與您聯(lián)系。如果最終完成審核,您可以訪問太初線上環(huán)境體驗太初加速卡的性能。
主站蜘蛛池模板: 寻甸| 平和县| 惠东县| 神池县| 察雅县| 安康市| 马山县| 巴马| 定西市| 紫云| 崇阳县| 长海县| 宁海县| 上杭县| 济宁市| 祥云县| 荆门市| 南安市| 正定县| 徐汇区| 长宁县| 汝城县| 紫云| 庆阳市| 镇坪县| 化州市| 巴东县| 扎赉特旗| 阿克| 桃园市| 岐山县| 河南省| 肇源县| 柳江县| 汶川县| 靖州| 吉林省| 紫云| 泗洪县| 建阳市| 朔州市|