我處理了 5 億 GPT tokens 后:langchain、RAG 等都沒什么用
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:我處理了 5 億 GPT tokens 后:langchain、RAG 等都沒什么用
關(guān)鍵字:元宇宙,報(bào)告,模型,提示,上下文
文章來源:AI前線
內(nèi)容字?jǐn)?shù):10763字
內(nèi)容摘要:
作者 | KEN KANTZER
譯者 | 平川
策劃 | 褚杏娟
本文最初發(fā)布于 KEN KANTZER 的個(gè)人博客。
在過去的六個(gè)月里,我的創(chuàng)業(yè)公司 Truss(gettruss.io)發(fā)布了多項(xiàng)倚重 LLM 的功能,而我在 Hacker News 上讀到的關(guān)于 LLM 的故事現(xiàn)在已經(jīng)和我的實(shí)際情況脫節(jié)了,所以我想在處理過 5 億多(我估計(jì))tokens 之后,分享一些更“令人驚訝”的經(jīng)驗(yàn)教訓(xùn)。
本文要點(diǎn):
我們正在使用 OpenAI 模型,如果你想知道我對(duì)其他模型的看法,請(qǐng)閱讀底部的問答部分。
在我們的用例中,GPT-4 占 85%,GPT-3.5 占 15%。
我們專門處理文本,因此不涉及 GPT-4-vision、Sora、whisper 等。
我們有一個(gè) B2B 用例——重點(diǎn)是匯總 / 分析 – 提取,你的情況可能有所不同。
5 億 tokens 其實(shí)并不像想象的那多,也就大概 75 萬頁文本,要正確看待。對(duì)于提示,少即是多我們發(fā)現(xiàn),不要在提示中給出確切的列表或指令——如果這些東西已經(jīng)是常識(shí)的話,這樣可以獲得更好的結(jié)果。GPT 并不愚蠢,你提供的細(xì)節(jié)過多,反而會(huì)讓它混亂。
原文鏈接:我處理了 5 億 GPT tokens 后:langchain、RAG 等都沒什么用
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛好者、開發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。