聚緣于?!ら_源共行 | 太初元碁Tecorigin受邀出席開放原子校源行(江南大學站)

“開放原子校源行”是由開放原子開源基金會發起的公益項目,旨在傳播開源文化、培育開源人才,得到了政府部門的大力支持。工業和信息化部指導開放原子開源基金會積極開展“校源行”系列活動,希望探索開源實踐教學模式,厚培開源人才底座,助力提升軟件科技源頭創新和軟件技術供給能力,打造人才培養“樣板間”,建立開源評價“試驗田”,培植產業實踐“先鋒隊”。
作為嘉賓,邵柏潭發表了題為“AI芯片驅動的RAG算法與大模型創新”的精彩演講,分享了太初在大模型領域的最新研究成果與應用創新。
Teco-RAG:重塑知識問答系統的未來
演講中,邵柏潭重點介紹了Teco-RAG開發框架。這一框架是太初圍繞開源大模型生態精心構建的,旨在幫助各行業的用戶快速搭建本地化、私有化的知識問答系統。通過利用Teco-RAG,用戶能夠輕松整合自己的知識庫,實現高效、精準的知識管理與對話交互,為產品智能化升級提供強大支持。
項目地址:https://gitee.com/tecorigin/teco-generative-ai(請復制鏈接到瀏覽器中打開)
Chuxin系列
此外,邵柏潭還詳細闡述了Chuxin系列的創新成果。
其中,Chuxin-Embedding通過迭代式精煉數據質量與優化向量模型分布,在C_MTEB和AIR-Bench QA兩個權威榜單上取得Top1的優異成績。
項目地址:https://github.com/chuxin-llm/Chuxin-Embedding(請復制鏈接到瀏覽器中打開)
而Chuxin-1.6B模型則憑借上采樣長序列數據及合成的長序列數據,實現了外推上下文窗口的漸進式微調訓練,在OpenLLM平均評測指標上較Qwen1.5模型提升了0.46%,展現了卓越的性能提升。
項目地址:https://github.com/chuxin-llm/Chuxin-1.6B(請復制鏈接到瀏覽器中打開)
大模型訓推創新
邵柏潭還分享了太初在大模型訓練與推理方面的創新探索。
● Teco-LLM訓練庫支持10+個主流模型及多種微調范式,具備70B級預訓練能力,并集成CommonCheckpoint無損斷點續訓、模型切分、zeros優化器等高級功能。該訓練庫不僅簡化了數據處理、權重切分、訓練測評等復雜流程,還通過Docker容器化環境搭建,極大提升了易用性和部署效率。
● Teco-Deepspeed訓練框架以其并行策略線性擴展、融合算子加速優化、BF16混合精度支持等特性,實現了百卡級穩定訓練與芯片無感知的卓越性能。
● Teco-Inference-Engine推理框架支持30+主流LLMs及7+多模態模型,提供Teco-VLLM/Teco-TGI/Teco-Triton等多種服務化后端選擇,并支持長序列極限吞吐優化,為AI應用的落地提供了強有力的支持。
第二屆開放原子開源大賽-Tecorigin挑戰賽
活動現場,邵柏潭介紹了第二屆開放原子開源大賽-Tecorigin挑戰賽。本次挑戰賽共設兩項賽事,總獎金高達60萬元,旨在鼓勵更多開發者參與到AI技術的創新與應用中來。
● Tecorigin算子開發挑戰賽:參賽者在C/C++基礎上學習SDAA C編程語言,通過優化算子性能來提升計算任務的執行效率。這不僅考驗了參賽者的編程能力,也對其在AI算法優化方面的理解提出了高要求。
● Teco-RAG挑戰賽:參賽者需在Teco-RAG原型框架基礎上,通過知識文檔預處理、知識庫構建、檢索召回優化及Prompt工程優化等方法,搭建出基于大模型的檢索增強問答系統。
賽事已正式啟動,誠邀各界英才參與,所有對AI技術充滿熱情、渴望挑戰自我的開發者均可掃描下方二維碼參與報名,并加入賽事交流群與同行共同探討技術難題、分享創新思路。
通過本次演講,不僅展示了太初元碁在國產硬件系統驅動的RAG算法與大模型創新方面的最新成果,還向與會者傳遞了太初致力于推動AI技術普及與應用創新的堅定信念。未來,太初將繼續深耕AI領域,攜手各界伙伴共同探索AI技術的無限可能,為構建更加智能、便捷的未來世界貢獻力量。