很多人每天都在用一些 AI 工具,但是也经常听到 token。
那么 token 到底是什么?它有什么用?
今天我们不聊枯燥的概念,只用相对通俗易懂的方式帮助大家理解这个概念,并且提供工具,能够让大家上手体验。
Token 是什么?
一句话总结,Token(词元)是大语言模型(LLM)理解和处理文本的最小基本单位。
Token 不一定是一个单词,也不一定是一个汉字。它的切分方式取决于模型使用的“分词器”(Tokenizer)。
不仅是单词:在英文中,一个 Token 可以是一个完整的单词(如 “Apple”),也可以是单词的一部分(如 “ing”),甚至是一个标点符号或字符。
不仅是文字:对于计算机来说,它最终看到的并不是这些文字,而是每个 Token 对应的唯一数字编号(ID)。例如,模型可能会把“我”标记为 ID1,“喜欢”标记为 ID2,然后将这些数字转化为高维向量进行数学运算。
举个例子:如果我们要处理英文单词 “inexplicable”(无法解释的):
• 人类看到的是一个完整的词。
• AI(通过子词分词技术)可能会把它拆解为三个 Token:“in-”(不)、“explic”(解释的词根)、“able”(能够)。
• 这样做的好处是,即使 AI 没见过 “inexplicable” 这个整词,它也能通过认识这三个零件来理解它的意思。
如何看多少 Token?
前面我们讲到了,可以用分词器将文本转化为 Tokens。
OpenAI 分词器:https://platform.openai.com/tokenizer
这里不同的颜色代表不同的 token,我们可以一目了然地看到切分后的 token。
我们不仅可以看到它分词的文本,还可以看到每个 token 的 ID。
火山引擎也提供了 tokens 计算器,可以在上面选择模型,然后可以看到对应的每字符数和 tokens 数量。
传送门:https://console.volcengine.com/ark/region:ark+cn-beijing/tokenCalculator?
DeepSpeed 的官方文档里面也给出了大概的换算标准,还给出了换算的工具包。
不同模型的分词不同,一般情况下,一个英文字符大概 0.3 个 token,一个中文字符大概 0.6 个 token。
为什么需要 Token?
让机器听懂人类语言
计算机本质上只能处理数字和数学运算,无法直接理解人类的文本。
Token 是连接人类语言(文本流)和机器计算(数字流)的桥梁。
通过将文本切分为 Token 并转换为向量,AI 才能在神经网络中进行矩阵运算,从而捕捉词语之间的语义关系
寻找效率的“黄金平衡点”
在设计 AI 时,科学家面临两难选择,Token 机制是目前最优的解决方案:
•如果按“字符”切分(a, b, c…):词表很小,但句子会变得极长(例如 “Deep Learning” 只有两个单词,但有十几个字符)。这会让计算量呈指数级爆炸,且单个字符很难承载完整的语义。
•如果按“单词”切分(Word-level):词表会大得离谱(包含所有变形,如 look, looks, looked),且一旦遇到没见过的生僻词(Out-Of-Vocabulary),模型就会“傻眼”。
•Token(子词分词)的优势:它保留了常见词的完整性,同时将生僻词拆解为常见的词根。这既控制了词表大小(通常几万到十几万),又保证了模型能处理几乎所有的文本,兼顾了效率和能力。
理论照进现实
接下来,让我们理论照进现实。
那我们在一些大模型平台上可以看到某个模型,它支持的上下文窗口数,然后输入 tokens 和输出 tokens 的价格。
那上下文窗口数指的就是大模型一次最多可以处理的 tokens 数量。
$21/M input tokens 是指每 100 万个输入 Token,收费 21 美元。
$168/M output tokens 是指每 100 万个输出 Token,收费 168 美元。
细心的你会发现,输出的价格通常是输入的几倍甚至十几倍。这是为什么呢?
输入便宜,是因为当你把一段很长的话发给模型时,模型可以同时看到所有的文字。GPU 可以利用并行计算能力,一次性把这些文字转化并处理完。
大模型生成回复时,是一个字一个字往外蹦的(Autoregressive,自回归生成)。 为了生成第 5 个字,它必须先算完前 4 个字;为了生成第 6 个字,必须算完前 5 个字。这意味着 GPU 无法通过并行加速来“一次性写完”,必须跑很多轮循环。这大大增加了推理的时间成本和算力占用。
比如我们在使用 Cherry Studio 的时候,就可以清楚地看到「预计」消耗多少 tokens,以及输入和输出分别是多少。
我们在大模型服务商的后台可以清晰地看到每次请求的输入和输出 tokens 数量以及价格、时间等等。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。
掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 大模型项目实战
学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!
这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】