人工(gong)智能概念辨析:介(jie)紹大模型(xing)相(xiang)關術語,回顧大模型(xing)從(cong)運算(suan)推理(li)、知識(shi)工(gong)程到深度學(xue)習的發展歷程,對比生成模型(xing)和推理(li)模型(xing)在定位、推理(li)能力、多模態支(zhi)持(chi)、應(ying)用場景和用戶(hu)交互體驗(yan)的差異。
DeepSeek R1
公司(si)與模(mo)(mo)(mo)型(xing)(xing):DeepSeek 成(cheng)立于 2023 年 7 月,獲幻方量化支持,專注大(da)語言模(mo)(mo)(mo)型(xing)(xing)開發。旗下(xia)模(mo)(mo)(mo)型(xing)(xing)包括生成(cheng)模(mo)(mo)(mo)型(xing)(xing) V3 和推(tui)理模(mo)(mo)(mo)型(xing)(xing) R1,R1 具有(you)推(tui)理能力(li)強(qiang)、開源(yuan)、低(di)成(cheng)本、國(guo)產化等(deng)特點,在國(guo)際競爭中(zhong)處于第(di)一梯隊。
使(shi)用與部署(shu):提供(gong)官方(fang)(fang)網頁、APP、API,還可通(tong)過(guo)(guo)國家超(chao)算(suan)平(ping)臺等第三方(fang)(fang)渠道使(shi)用。個人可通(tong)過(guo)(guo) Ollama 部署(shu)蒸餾模型,企業可利(li)用 vLLM 進行生產(chan)級部署(shu)。部署(shu) R1 滿血版需(xu)特(te)定算(suan)力支持,不同算(suan)力配置價格不同。
模型原理:GPT 采用 Transformer 架構,經(jing)預(yu)訓練(lian)、監督微調等(deng)階段(duan),基(ji)于上下(xia)文預(yu)測下(xia)一(yi)個 token。生(sheng)成(cheng)模型有(you)語言理解和(he)生(sheng)成(cheng)等(deng)能力,但(dan)存在(zai)幻覺等(deng)問題。DeepSeek R1 通過思維鏈(lian)、強(qiang)化學習(xi)和(he)蒸餾技術,提(ti)升推(tui)理能力,減(jian)少(shao)模型大小(xiao)。
落地應用
提(ti)示詞技巧(qiao):包(bao)括真(zhen)誠直接(jie)、使用通(tong)用公式(shi)、說(shuo)人話、反向 PUA、善于模仿(fang)、擅長(chang)銳評、激(ji)發深度思考等(deng),可提(ti)升(sheng)對(dui)話質量。
應用場景(jing):適(shi)用于(yu)推(tui)理密集型(xing)任務、教育與(yu)(yu)知識應用、文檔分析、開(kai)放領域問答寫作等場景(jing)。在教育與(yu)(yu)學術領域,可(ke)用于(yu)教學設計(ji)、作業批改、論(lun)文輔助等;在知識付費領域,可(ke)進行(xing)課程大(da)綱設計(ji)、直播(bo)腳本撰寫等。
![]() |
智能服務機器人 |