AIAgent框架——MetaGPT技術詳解
2025/02/27
MetaGPT簡介簡介 近年,大語言模型以其強大的自然語言處理能力,成為AI領域的一大熱點。它們不僅能生成和理解文本,還能進行復雜的分析和推理。與此同時,大語言模型還帶火了智能體(即AI Agent)。智能體是一種能夠感知環境、進行決...
2025年值得入坑AIAgent的五大框架
【AI驅動】
Agent 目前我見到的最多的翻譯是“智能體”,但是直譯是“代理”。 那 Agentic 又要翻譯成什么呢?我感覺“代理型”這樣的詞更合適。 所以為了不讓讀者混淆,我在本文直接用英文表示。 隨著 LLM 的發展,AI 的能...
2025/02/27
本地部署資訊問答機器人:Langchain+Ollama+RSSHub實現RAG
【AI驅動】
經過調研,我決定先采取 Langchain+Ollama 的技術棧來作為 demo 實現,當然,后續我也會考慮使用 dify、fastgpt 等更加直觀易用的 AI 開發平臺。 整體框架設計思路如下: ...
2025/02/27
AIAgent框架——multi-agent技術詳解
【AI驅動】
關于multi-agent 隨著LLM的涌現,以LLM為中樞構建的Agent系統在近期受到了廣泛的關注。Agent系統旨在利用LLM的歸納推理能力,通過為不同的Agent分配角色與任務信息,并配備相應的工具插件,從而完成復雜的任務。 ...
2025/02/27
DeepSeek 新開源項目 DeepGEMM
【AI驅動】
DeepSeek 在開源周第三天推出了專為 Hopper 架構 GPU 優化的矩陣乘法庫 DeepGEMM,支持標準矩陣計算和混合專家模型(MoE)計算,為 DeepSeek-V3/R1 的訓練和推理提供強大支持,在 Hopper GPU 上達到 1350+FP8 TFLOPS 的高性能。DeepGEMM 的設計理念是簡潔高效,核心代碼僅約 300 行,同時在大多數矩陣尺寸下性能優于現有解決方案。該庫支持三種數據排列方式:標準排列和兩種專為混合專家模型設計的特殊排列(連續排列和掩碼排列)。DeepGEMM 采用即時編譯技術,不需要在安裝時進行編譯,代碼結構清晰易懂,非常適合學習 GPU 優化技術。
2025/02/26
Claude 3.7 Sonnet:功能、訪問、基準測試等
【AI驅動】
Claude 3.7 Sonnet 是一款具有創新性的 AI 模型,它結合了推理模式和通用模式,為用戶提供了更靈活的使用體驗。用戶可以通過網絡界面或 API 訪問該模型,從而在不同的應用場景中發揮其強大的功能。此外,Claude 3.7 Sonnet 在關鍵的基準測試中表現出色,證明了其在處理復雜任務時的高效性和可靠性。對于希望深入了解或使用 Claude 3.7 Sonnet 的用戶,DataCamp 提供了相關的課程和資源,幫助他們快速上手并充分發揮該模型的潛力。
2025/02/26
全球首個混合推理模型 Claude 3.7 Sonnet 問世,編碼實力碾壓眾對手
【AI驅動】
Anthropic 公司發布了其最新模型 Claude 3.7 Sonnet,這是全球首個混合推理模型,能夠提供即時響應或逐步展示思考過程。該模型在編碼和前端開發方面表現出色,成為 Anthropic 有史以來最優秀的編碼模型。Claude 3.7 Sonnet 支持標準和擴展思考模式,API 用戶可以精確控制模型的思考時間。此外,Anthropic 還推出了智能編碼工具 Claude Code,幫助開發人員直接從終端將工程任務委托給 Claude。Claude 3.7 Sonnet 在多項基準測試中刷新了記錄,如在 SWE-bench Verified 上實現了 SOTA 性能,顯著提升了數學、物理、指令遵循、編碼等任務的表現。該模型現已在所有 Claude 計劃中上線,包括免費版,擴展思考模式對非免費用戶開放。
2025/02/26
Claude 3.7 Sonnet:技術解析與應用實例
【AI驅動】
Claude 3.7 Sonnet 是 Anthropic 公司推出的一款先進的語言模型,支持多種自然語言處理任務,如文本生成、問答系統、對話管理和自動生成代碼等。該模型具備高度的靈活性和可擴展性,廣泛應用于多個領域。文章詳細介紹了如何調用 API 的具體步驟,并通過表格形式對比了不同類型 API 的日均調用量及其主要功能。特別強調了自動生成代碼的功能,展示了如何根據需求生成高質量的代碼片段,減少了手動編寫的工作量。此外,還展示了多個實際應用場景,如文本生成、問答系統和對話管理等??傊?,Claude 3.7 Sonnet 以其強大的功能和廣泛的應用場景,成為推動現代自然語言處理技術發展的關鍵力量。
2025/02/26
DeepSeek FlashMLA代碼庫解析——功能、性能與成本效益全維度評測
【AI驅動】
DeepSeek FlashMLA代碼庫通過分頁KV緩存、動態Tile調度、BF16混合精度三大核心技術,在Hopper GPU架構上實現大模型推理的突破性優化?;鶞蕼y試顯示,其在8K長序列處理中達到121 tokens/s的吞吐量,較傳統方案提升189%,同時降低35%的顯存占用。成本效益分析表明,采用FlashMLA可使千億模型推理集群的三年TCO節省超$1.2M,API服務定價具備38%的降價空間。該代碼庫已成功應用于金融文檔解析、多模態客服等場景,支持單卡128路高并發處理。開發者可通過Docker快速部署,結合動態批處理配置與實時監控指標,實現高效穩定的生產級AI服務。作為國產AI基礎設施的重要突破,FlashMLA的開源標志著大模型推理優化進入"顯存智能調度"的新階段。
2025/02/24
開源新進展:DeepSeek 與 FlashMLA 合力,H800 算力狂飆,低成本策略揭曉
【AI驅動】
DeepSeek 開源周第一天,推出了名為 FlashMLA 的技術,該技術為 Hopper GPU 開發的高效 MLA 解碼內核,專門針對可變長度序列進行了優化,已投入生產。FlashMLA 使用后,H800 可達到 3000GB/s 內存,實現 580TFLOPS 計算性能。MLA 是 DeepSeek 提出的創新注意力架構,從 V2 開始,MLA 使得 DeepSeek 在系列模型中實現成本大幅降低,但計算、推理性能仍能與頂尖模型持平。此次發布的 FlashMLA 支持 BF16,分頁 KV 緩存,塊大小為 64。環境要求為 Hopper GPU、CUDA 12.3 及以上版本、PyTorch 2.0 及以上版本。MLA 通過低秩聯合壓縮技術,將多頭注意力中的鍵(Key)和值(Value)矩陣投影到低維潛在空間,從而顯著減少鍵值緩存(KV Cache)的存儲需求。V2 版本中,顯存占用降到了過去最常用的 MHA 架構的 5%-13%,推理成本僅為 Llama 370B 的 1/7、GPT-4 Turbo 的 1/70。V3 版本中,降本提速更為明顯。DeepSeek-R1 在 HuggingFace 上獲得了超過 10000 個贊,成為該平臺近 150 萬個模型之中最受歡迎的大模型。
2025/02/24
Trae從0到1開發next.js網站并發布(保姆級教程)
【AI驅動】
本文為零基礎用戶提供克隆并部署Next.js博客的保姆教程。借助AI工具Trae,分析目標網站技術棧后,通過截圖+自然語言提示(如“復制圖片效果”)生成代碼。針對依賴安裝問題,改用淘寶鏡像和yarn加速。分步完善吸頂菜單、文章列表及底部導航,利用AI調試異常代碼。最終推送代碼至GitHub,一鍵部署到Vercel生成可訪問站點。
2025/02/24
DeepSeek 13個官方提示詞通俗解讀
【AI驅動】
DeepSeek官方推出13類實用提示詞指南,覆蓋AI交互核心場景,如模型定制(生成Linux助手等)、角色扮演(沉浸對話)、文案/代碼生成(大綱、JSON結構化)、翻譯優化(信達雅標準)、詩歌創作等,通過系統提示詞設定規則、用戶提示詞調整需求,支持合并輸入簡化操作。適用于編程、營銷、寫作等場景,結合案例與擴展思路,幫助用戶精準提問,提升AI輸出效率與實用性。
2025/02/24
如何獲取字節火山deepseek系列-api完整教程,及使用方法
【AI驅動】
API使用的幾種方式:飛書多維表格調用,Coze智能體調用,瀏覽器插件調用。
2025/02/24
阿里云PAI 支持云上一鍵部署 DeepSeek-V3、DeepSeek-R1 系列模型
【AI驅動】
阿里云PAI平臺現已支持DeepSeek-V3和DeepSeek-R1系列模型的云上一鍵部署,助力企業用戶和開發者實現模型與業務的高效融合。DeepSeek-V3是一個參數量達671B的MoE架構大語言模型,采用MLA和DeepSeekMoE架構優化,支持多token預測訓練目標,性能接近國際頂尖閉源模型。DeepSeek-R1則是高性能推理模型,參數量為660B,通過強化學習顯著提升推理能力。PAI Model Gallery集成了包括DeepSeek系列在內的多種預訓練模型,用戶可零代碼完成從訓練到部署的全流程。部署方式包括vLLM加速部署和Web應用部署,支持多種推理框架,部署后可快速獲取調用接口,實現模型的高效應用。
2025/02/21
微調碾壓RAG?大模型意圖識別工程化實踐
【AI驅動】
文章探討了大模型在智能電視意圖識別中的應用與工程化實踐,對比了基礎模型、RAG(檢索增強生成)和微調模型三種方案的優缺點。智能電視行業正借助AI大模型的自然語言處理和邏輯推理能力提升用戶體驗,但傳統NLP算法在復雜語境下的意圖識別、上下文理解和多輪對話方面存在局限性。文章詳細介紹了三種方案的特點、模型選擇、實現方法及優缺點:方案一(基礎模型+Prompt)開發成本低,但對垂類領域分類識別能力有限;方案二(基礎模型+Prompt+RAG)通過知識庫增強意圖分類能力,但存在延遲和幻覺問題;方案三(小尺寸模型微調)通過LoRA微調解決延遲問題,同時利用微調提升數據增強效果。最終,作者選擇了7B底座的微調方案,并通過自動質檢和自動微調工程鏈路實現生產準確率的持續優化。該方案在某國產頭部電視廠家落地后,平均延遲500ms,實時準確率達到98%以上,顯著提升了用戶體驗。
2025/02/21
0代碼!2種方式一鍵部署 DeepSeek 系列模型
【AI驅動】
本文介紹了如何通過阿里云的函數計算(FC)和云原生應用開發平臺(CAP)以零代碼、低門檻的方式一鍵部署DeepSeek-R1系列模型。文章以DeepSeek-R1-Distill-Qwen-7B-GGUF模型為例,展示了兩種部署方式:模型服務部署和應用模板部署。模型服務部署通過API調用接入線上業務應用,支持Ollama和Transformers框架,用戶可快速配置資源并完成模型部署,最快10分鐘即可完成。應用模板部署則實現DeepSeek-R1模型與OpenWebUI的結合,用戶可通過OpenWebUI界面直接與模型對話。該方案采用按量付費模式,支持彈性伸縮和高可用性,適合希望快速部署、無需關注運維的用戶。
2025/02/21
上一頁
1
…
9
10
11
12
13
…
65
下一頁
搜索、試用、集成國內外API!
冪簡集成
API平臺
已有
5643
種API!
API大全
搜索文章
熱門話題
C
API是什么
C
如何集成API
C
學習各類API
C
最佳API
C
AI驅動
C
區塊鏈驅動
C
API設計
C
API開發
C
API工具
C
API安全
C
API貨幣化
C
API創新
文章精選
AI大模型榜單TOP10排名與詳情解析
2025/05/08
大模型上下文協議與Spring開發集成篇——mcp-spring-webmvc原理
2025/03/17
從零開始教你打造一個MCP客戶端
2025/03/14
一文講透 AI Agent 與 AI Workflow 的區別和深度解析:從自動化到智能化的演進
2025/03/13
實測告訴你:DeepSeek-R1 7B、32B、671B差距有多大
2025/03/13
6個大模型的核心技術介紹
2025/03/13
太強了!各個行業的AI大模型!金融、教育、醫療、法律
2025/03/13