Novita API產品27
Mistral NeMo 12B 是由 Mistral AI 與 NVIDIA 聯合開發的開源大語言模型,擁有 120 億參數,支持最長 128K token 的上下文輸入,專為多輪對話、代碼生成和多語言任務優化。該模型采用 FP8 精度格式,提升推理效率,適用于企業級應用。Mistral NeMo 12B 可通過 NVIDIA NIM 微服務部署,便于在各類平臺上快速集成和使用。
Mistral 7B Instruct 是由 Mistral AI 發布的開源指令微調語言模型,擁有 73 億參數,專為對話生成、代碼編寫和函數調用等任務優化。該模型采用 Grouped-Query Attention(GQA)機制,支持最長 32,768 個 token 的上下文輸入,性能優于 LLaMA 2 13B,適用于智能問答、內容創作和多語言應用場景。Mistral 7B Instruct 可通過 Hugging Face 和 NVIDIA NIM 等平臺部署使用。 ?
Llama 3.1 70B Instruct 是 Meta 于 2024 年 7 月發布的多語言指令微調大語言模型,擁有 700 億參數,支持最長 128K token 的上下文輸入。該模型采用優化的 Transformer 架構,結合分組查詢注意力(GQA)機制,通過監督微調(SFT)和人類反饋強化學習(RLHF)進行訓練,優化了多語言對話、代碼生成、數學推理等任務,適用于智能問答、內容生成和多語言應用場景。
Llama 3 8B Instruct 是 Meta 于 2024 年 4 月發布的開源指令微調語言模型,擁有 80 億參數,專為對話、代碼生成和多語言任務優化。該模型在 15 萬億 token 上進行預訓練,結合監督微調(SFT)和人類反饋強化學習(RLHF)進行訓練,支持最長 8,192 個 token 的上下文輸入,適用于智能問答、內容創作和企業級應用場景。
Llama 3.2 11B Vision Instruct 是 Meta 于 2024 年 9 月發布的多模態指令微調模型,擁有 110 億參數,支持圖像與文本混合輸入,輸出文本結果。該模型優化了圖像識別、視覺問答、圖像描述和文檔解析等任務,支持最長 128K token 的上下文輸入,適用于內容生成、智能問答、教育輔助等場景。可通過 Hugging Face 和 Amazon Bedrock 等平臺部署使用。
Llama 3.1 70B Instruct 是 Meta 于 2024 年發布的多語言指令微調大語言模型,擁有 700 億參數,支持最長 128K token 的上下文輸入。該模型采用優化的 Transformer 架構,結合分組查詢注意力(GQA)機制,通過監督微調(SFT)和人類反饋強化學習(RLHF)進行訓練,優化了多語言對話、代碼生成、數學推理等任務,適用于智能問答、內容生成和多語言應用場景。
Llama 3.1 8B Instruct BF16 是 Meta 于 2024 年 7 月發布的多語言指令微調大語言模型,擁有 80 億參數,采用 bfloat16 精度格式,優化了推理性能和內存效率。該模型支持最長 128K token 的上下文輸入,適用于對話生成、代碼編寫和多語言翻譯等任務,適合在資源受限的本地部署和商業應用場景。
Llama 3.1 8B Instruct 是 Meta 于 2024 年 7 月發布的多語言指令微調大語言模型,擁有 80 億參數,支持最長 128K token 的上下文輸入。該模型采用 Grouped-Query Attention(GQA)機制,優化了對話、文本生成、代碼編寫和多語言翻譯等任務,適用于資源受限的本地部署和商業應用場景。
Llama 3.2 1B Instruct 是 Meta 于 2024 年 9 月發布的輕量級多語言指令微調模型,擁有 12.3 億參數,支持最長 128K token 的上下文輸入。該模型采用優化的 Transformer 架構,結合 Grouped-Query Attention(GQA)機制,通過監督微調(SFT)和人類反饋強化學習(RLHF)進行訓練,優化了多語言對話、摘要生成和知識檢索等任務,適用于邊緣設備和移動應用。