全網(wǎng)最全的 DeepSeek 使用指南,90% 的人都不知道的使用技巧
當(dāng)前位置:點(diǎn)晴教程→知識(shí)管理交流
→『 技術(shù)文檔交流 』
從 DeepSeek R1 發(fā)布那天開始,我就開始寫文章介紹 DeepSeek,沒想到這幾天這么火爆了。 不過我在翻看評(píng)論區(qū)時(shí),發(fā)現(xiàn)很多朋友并沒有很好的發(fā)揮出 DeepSeek R1 的潛能。 朋友們,我真是著急啊。 心急之下,趕緊寫了這篇文章,教大家一些有用的技巧,并提供一些案例,來讓 DeepSeek R1 成為咱們的得力干將。 ?在哪使用 DeepSeek 為照顧一些新手朋友,這里還是先說下在哪使用 DeepSeek,老手跳過這部分就行了。 目前 DeepSeek 提供了如下使用方式: 1. 網(wǎng)頁(yè)版:打開 https://chat.deepseek.com/ 直接使用。 2. App:手機(jī)掃碼下載。 默認(rèn)情況下,DeepSeek 使用的是 V3 模型,點(diǎn)擊深度思考才會(huì)切換為 R1 模型,即現(xiàn)在讓“硅谷震驚”的模型。 深度思考旁邊還有個(gè)聯(lián)網(wǎng)搜索,默認(rèn)情況下 DeepSeek 使用的是好幾個(gè)月前的訓(xùn)練數(shù)據(jù),如果我們想?yún)⒖甲钚碌男侣?,則點(diǎn)擊聯(lián)網(wǎng)搜索讓 DeepSeek R1 基于最新的網(wǎng)絡(luò)數(shù)據(jù)來優(yōu)化回答。 另外 DeepSeek 還提供了服務(wù)狀態(tài)的監(jiān)控,可以打開 https://status.deepseek.com 查看服務(wù)狀態(tài)。 一般來說,當(dāng)服務(wù)狀態(tài)為紅色時(shí),會(huì)較頻繁的出現(xiàn)“服務(wù)器繁忙,請(qǐng)稍后再試”的提示。 基礎(chǔ)技巧 好了,現(xiàn)在正式進(jìn)入正題,看看用什么技巧能讓 DeepSeek R1 成為我們的得力助手。 直接提需求 首先說下 DeepSeek 相對(duì)于 GPT 等主流大模型的區(qū)別。 GPT 等主流大模型是指令型大模型。 這類大模型需要我們給它說下比較詳細(xì)的流程,它的回答才會(huì)讓我們滿意。 比如我們想讓 GPT 4o 扮演中國(guó)媽媽讓孩子相親:“請(qǐng)你扮演我媽,用我媽的口氣來教育我,批評(píng)我,催我結(jié)婚,讓我回家。給我講七大姑八大姨家的孩子都結(jié)婚了,為啥就我單身,再給我安排幾個(gè)相親對(duì)象?!?/span> 演示效果如下: 上面的提示詞不僅交代了需求背景(“用我媽的口氣來教育我”),還交代了一些額外的流程(“七大姑八大姨家的孩子都結(jié)婚了”,“再安排幾個(gè)相親對(duì)象”)等。 因此去年在 ChatGPT 這類指令型大模型很火的時(shí)候,出現(xiàn)了很多提示詞模板,甚至誕生了“提示詞工程師”這一崗位。 而 DeepSeek R1 屬于推理型大模型。 這類模型不需要我們列出太詳細(xì)的流程,太詳細(xì)的流程反而會(huì)降低它們的性能,限制它們的發(fā)揮。 DeepSeek R1 在發(fā)表的論文中也提到:DeepSeek R1對(duì)提示詞很敏感。為獲得最佳效果,建議用戶直接描述問題。 我們用問題 “當(dāng)老黃看到英偉達(dá)的股價(jià)因?yàn)?DeepSeek R1 暴跌 17% 時(shí),寫出他的內(nèi)心獨(dú)白” 為例,對(duì)比下幾個(gè)主流大模型,就能看出一些區(qū)別。 先看看豆包的回答: 豆包的輸出只有心理描述,略顯空洞乏味。 接著看看 GPT-4o 的回答: GPT-4o 加了點(diǎn)人物動(dòng)作,回答相對(duì)于豆包豐富了一些,不過仍然比較空洞。 再看看 Claude 3.5 Sonnet 的回答: Claude 不僅說之前英偉達(dá)也大跌過,還提到了英偉達(dá)的生態(tài)系統(tǒng),整個(gè)回答會(huì)讓人有信服感。 最后看看 DeepSeek R1 的答案: 相對(duì)于前幾個(gè)大模型,DeepSeek 自己“加了很多戲”,不過讀起來更形象也更有畫面感。 所以對(duì)于 DeepSeek R1 而言,我們完全可以把自己想象成老板,DeepSeek R1 是我們請(qǐng)的一位專業(yè)助手。 這位專業(yè)助手不需要我們告訴它應(yīng)該怎么做,我們只管“當(dāng)大爺”提需求,讓助手干活就行了。 可能幾次交流之后,你會(huì)得出這樣的結(jié)論:我們是真不如 AI 那樣博學(xué)啊。 下面再介紹一些技巧,讓你的 DeepSeek 好用到爆。 萬能提問模板 雖然直接提問題已經(jīng)能得到不錯(cuò)的答案,但如果再加上“背景描述”這個(gè)簡(jiǎn)單的優(yōu)化,還能讓回答更上一層樓。 背景描述指的是向 DeepSeek R1 說清楚我是誰(如我一個(gè)互聯(lián)網(wǎng)打工人)、我當(dāng)前的水平(如我是自媒體小白)、我想讓 DeepSeek 充當(dāng)?shù)慕巧ㄈ缒闶且幻悦襟w運(yùn)營(yíng)專家)等。 有時(shí) DeepSeek 回答的內(nèi)容可能不是你想要的,這時(shí)我們可以增加約束條件,來限制、優(yōu)化它回答的內(nèi)容。 所以可總結(jié)成這個(gè)簡(jiǎn)單、萬能的 DeepSeek 提問模板,即: 背景+需求+約束條件(可選)。 如:我家小孩讀初一(交待背景),怎樣提高他的英語(yǔ)水平(提出需求),不需要考慮口語(yǔ)問題 (約束條件,可選)。 可以看到 DeepSeek 這位助手十分貼心,不僅列了如何高效學(xué)習(xí)單詞、語(yǔ)法、閱讀和寫作,還提供了一些應(yīng)試技巧和日常訓(xùn)練的方法。 如果我們覺得這位助手的回答還不夠深入,完全可以讓它針對(duì)某一點(diǎn)再展開詳細(xì)說說。 用好這個(gè)簡(jiǎn)單的模板,能解決 90% 的日常問題,讓 DeepSeek 瞬間成為我們工作、學(xué)習(xí)、生活的好幫手。 讓 DeepSeek “說人話” 模板雖好用,但是當(dāng)我們問到一些專業(yè)領(lǐng)域的問題時(shí),DeepSeek 的回答會(huì)摻雜很多專業(yè)名詞來解釋問題。 如果我們是行業(yè)內(nèi)的人,專業(yè)名詞能幫我們快速清楚的解釋明白問題。 但如果這個(gè)領(lǐng)域剛好不是我們擅長(zhǎng)的話,通常都會(huì)覺得這些專業(yè)名詞晦澀難懂,不知所云。 碰到這種情況,我們只需要在提示詞中加上“說人話”、“大白話”、“通俗易懂” 等,DeepSeek 給我們的用戶體驗(yàn)會(huì)立馬提升一個(gè)檔次。 比如我問他“DeepSeek 成本這低的原因是什么”。 上面的回答并沒有什么問題,如果我們是業(yè)內(nèi)人士,自然知道 MoE 架構(gòu)、蒸餾和 FP8 是什么意思。 遺憾的是,可能 99% 的人根本不明白上述回答到底說的是什么意思。 這時(shí)我們只需要簡(jiǎn)單的加上“說人話”三個(gè)字,就能得到一個(gè)通俗易懂的答案了。 這里 DeepSeek 會(huì)用“100 個(gè)員工中只讓 10 個(gè)員工干活”解釋 MoE 架構(gòu),用“高清電影轉(zhuǎn) MP4 格式”來解決 FP8。 是不是一下就懂了! 模仿回答 我們還可以用“模仿 X”、“以 X 的口吻/語(yǔ)氣”,“以 X 的內(nèi)心獨(dú)白”等等提示詞,把 DeepSeek 的使用體驗(yàn)拉滿。 比如我們可以用知乎常用格式回應(yīng) DeepSeek 導(dǎo)致英偉達(dá)股價(jià)暴跌的問題。 用貼吧暴躁老哥的語(yǔ)氣回應(yīng)美國(guó)多名官員稱 DeepSeek 偷竊了他們的技術(shù)。 好家伙,我都能感覺它的唾沫星子快飛到我臉上了。貼吧 10 級(jí)的噴人水平也自愧不如吧。。。 我們還可以讓 DeepSeek 模仿李白給我們寫春聯(lián)。 讓《雪中悍刀行》的作者烽火戲諸侯,寫短篇小說給我們看。 有網(wǎng)友分享了“哲學(xué)大師”,看大師說的話,是不是頗有哲理? 可以看到,使用模仿人物的方法,能達(dá)到意想不到的結(jié)果。 高級(jí)技巧 這里再提供幾個(gè)比較繁瑣但高級(jí)的用法。 多模型組合 對(duì)于復(fù)雜場(chǎng)景,通常一個(gè) AI 模型并不能得到很好的效果,此時(shí)我們可以將 DeepSeek R1 與 GPT-4o 或 Claude 3.5 Sonnet 組合使用。 一般來說,可以先讓 DeepSeek R1 告訴我們應(yīng)該怎么處理問題,然后根據(jù)它給的答案讓指令型大模型去生成結(jié)果。 業(yè)務(wù)分析 如果我們想分析業(yè)務(wù),可以開啟“聯(lián)網(wǎng)搜索”實(shí)時(shí)搜索內(nèi)容,還能上傳附件來精準(zhǔn)分析。 比如我們想在小紅書上起號(hào),可以直接“聯(lián)網(wǎng)搜索”對(duì)標(biāo)賬號(hào),讓 DeepSeek R1 給我們一個(gè)起號(hào)流程。 對(duì)于不能搜索的地址,先手動(dòng)下載資料后,再上傳給 DeepSeek R1 幫助分析。 DeepSeek R1 不僅能給出具體流程,還會(huì)生成一些 mermaid 圖表,非常好用。 以我測(cè)試的結(jié)果看,一波策劃和數(shù)據(jù)分析師要失業(yè)了。 DeepSeek 不適合做什么 DeepSeek 碰到一些問題類型時(shí)會(huì)提示“無法思考這類問題”。 一般來說,主要是如下幾類問題: 1. 敏感內(nèi)容:國(guó)產(chǎn)審核比較嚴(yán),這里不說多了,懂得也懂。 2. 長(zhǎng)文本內(nèi)容:現(xiàn)在 DeepSeek 模型上下文長(zhǎng)度最長(zhǎng)為 6 萬 4 千個(gè) token,最大輸出長(zhǎng)度為 8 千個(gè) token,默認(rèn)輸出長(zhǎng)度為 4 千個(gè) token。 這里科普下,一個(gè) token 指的是一個(gè)語(yǔ)義單元,如一個(gè)單詞或單詞的一部分結(jié)構(gòu)(詞根或后綴)或標(biāo)點(diǎn)符號(hào)等。 而上下文長(zhǎng)度包括輸入長(zhǎng)度(如用戶問題、對(duì)話歷史等)和輸出長(zhǎng)度。 目前主流大模型服務(wù)商提供的最大上下文長(zhǎng)度如下: 1. 豆包:25.6 萬 token 2. GPT-4o、GPT-o1:12.8 萬個(gè) token 3. Claude Pro:20 萬個(gè) token (約500頁(yè)文本或100張圖片) 4. Gemini 1.5 Flash:100 萬個(gè) token 5. Gemini 1.5 Pro:200 萬個(gè) token 不知不覺寫了這么多,由于篇幅有限,這里就先聊到這。 其實(shí)還有很多內(nèi)容還沒寫出來,大家可以先關(guān)注我,后續(xù)會(huì)持續(xù)給大家?guī)硪恍└韶洝?/span> 最后再說一句,從去年 ChatGPT 的爆火到現(xiàn)在的 DeepSeek R1 的轟動(dòng),AI 就像當(dāng)年的智能手機(jī)一樣,開始慢慢滲透進(jìn)我們的生活,以后肯定會(huì)成為你我日常生活中的一部分。 大家應(yīng)該很難相信,人類現(xiàn)在沒有手機(jī)會(huì)變成什么樣。 同樣的,我相信再過 10 年,我們也離不開 AI。 所以,如果你覺得本文對(duì)你有幫助,請(qǐng)轉(zhuǎn)給你身邊需要使用 AI 的家人朋友,讓他們也能像你一樣,更好地使用 AI 工具。 閱讀原文:原文鏈接 該文章在 2025/2/5 16:35:43 編輯過 |
關(guān)鍵字查詢
相關(guān)文章
正在查詢... |