本文深入探讨了大模型如何处理文本输入。核心流程为文本经过Tokenize分词转为token再映射为token ID并转化为embedding向量。介绍了三种基础分词粒度按词切、按字符切、按子词切并详细解析了四种常见tokenizer方法BPE、WordPiece、Unigram、SentencePiece分析了它们的原理、优缺点及适用场景强调分词对模型理解能力的重要性。我们平时和大模型聊天输入的是一句话、一段文字甚至是一篇文章。但模型真正看到的并不是这些文字本身。在进入大模型之前文本通常要先经过一个步骤Tokenize也就是分词。简单来说tokenize的作用就是把一整段文本切成一个个模型能够处理的小片段。这些小片段就叫token。比如一句话我喜欢大语言模型在人看来这是一句话。但对模型来说它可能会被切成我 / 喜欢 / 大语言 / 模型也可能被切成我 / 喜 / 欢 / 大 / 语言 / 模型甚至在不同模型里切法还不一样。这就引出一个问题大模型到底是怎么切词的为什么大模型不能直接读文字因为模型本质上处理的是数字。文字进入模型之前一般要经历三个步骤文本 → token → token ID → embedding 向量也就是说模型不是直接理解“我喜欢大语言模型”这些文字而是先把它们变成token再把token映射成数字编号最后查表得到向量。这个切成token的过程就叫tokenizer。tokenizer切得好不好会影响很多事情序列长度词表大小计算成本模型理解能力新词处理能力所以分词不是一个小细节而是大模型输入系统里非常重要的一环。最基础的三种切分粒度大模型分词最基础可以分成三种粒度word按词切char按字符切subword按子词切1、按词切最符合人类习惯但词表太大按词切是最自然的方式。比如I like language models可以切成I / like / language / models中文也可以切成我 / 喜欢 / 大语言模型这种方式的优点是很好理解每个token往往具有比较完整的语义。但问题也很明显词太多了。自然语言里有大量长尾词、专有名词、缩写、拼写变化、生僻表达。比如ChatGPT Transformer bioconcentration non-targeted ......如果每个词都放进词表词表会变得非常大。词表越大embedding表也越大占用的显存和内存也越多。所以单纯按词切在大模型里并不是最理想的方案。2、按字符切词表小但句子会变长另一种方法是按字符切。比如英文hello切成h / e / l / l / o中文大语言模型切成大 / 语 / 言 / 模 / 型这种方法的优点是词表很小。英文就是字母、数字、符号中文虽然字符更多但也比完整词表小很多。它还有一个好处几乎不会遇到完全没见过的词。但缺点也很明显句子会被切得很碎序列长度变长计算成本增加。更重要的是每个字符本身包含的信息有限。比如“模”“型”分开看语义并不完整只有组合成“模型”意思才更清楚。所以按字符切虽然简单但表达能力有限。3、按子词切现代大模型最常用的折中方案现在很多大模型采用的是第三种方式subword子词切分。它介于“词”和“字符”之间。核心思想可以用一句话概括常见词尽量保留生僻词拆成更小的片段。比如Transformers可能会被切成Transform / ers再比如unbelievable可能切成un / believe / able这样做的好处是既不会像按词切那样导致词表爆炸也不会像按字符切那样把句子切得太碎。所以子词切分是目前大模型tokenizer的主流思路。常见tokenizer方法有哪些常见的大模型词表构建方法主要有四类BPEWordPieceUnigramSentencePiece它们的目标都差不多构建一套合适的token词表让文本既能被稳定表示又不会让词表过大。但它们的做法不一样。1、BPE从字符开始不断合并高频组合BPE全称是Byte-Pair Encoding字节对编码。它最早来自数据压缩思想后来被用到NLP分词中。BPE的核心逻辑很简单谁经常挨在一起就把谁合并。举个简单例子。假设语料里有这些词low lower newest widest一开始BPE会先把它们拆成字符l / o / w l / o / w / e / r n / e / w / e / s / t w / i / d / e / s / t然后统计相邻字符组合出现的频率。如果发现e s经常一起出现就把它们合并成es接着继续统计。如果发现es t经常一起出现就继续合并成est不断重复这个过程直到词表达到预设大小。最后词表里可能会有low er est wide new这样新来一个词lowest就可以被切成low / estBPE的优点是简单高效能处理未知词词表大小可控很多GPT系列模型、RoBERTa等模型都使用过BPE或类似BPE的方法。2、WordPiece不只看频率还看组合是否更合理WordPiece也属于子词切分方法。它和BPE很像也会从小片段开始逐步合并成更大的子词。但它和BPE的关键区别在于BPE更关注出现频率WordPiece更关注合并后对语言模型概率的提升。简单理解就是BPE会问哪两个片段最常一起出现WordPiece会问哪两个片段合并以后更能提高语料的整体表示概率比如两个片段A和B如果A和B各自出现很多但它们并不是强绑定关系那么WordPiece不一定优先合并它们。WordPiece更倾向于合并那些经常一起出现并且彼此关联很强的组合。例如playing可能会切成play / ##ing这里的##ing表示它不是一个独立开头的词而是接在前面的子词后面。BERT、DistilBERT、ELECTRA 等模型中常见tokenizer就是 WordPiece。一句话理解WordPiece它也是合并子词但不是单纯看谁出现次数多而是看合并后是否更有利于建模。那么问题来了啥叫更有利于建模3、Unigram先给很多候选再逐步删掉不重要的Unigram 的思路和BPE、WordPiece不太一样。BPE和WordPiece大体是从小到大不断合并。而Unigram更像是先准备一个很大的候选词表再慢慢删。比如一开始它可能准备很多候选token大 语言 模型 大语言 语言模型 大语言模型然后根据概率模型判断哪些token更有用哪些token删除后对整体损失影响较小。每次删除一批影响最小的token最后保留一个大小合适的词表。Unigram的特点是同一个句子可能有多种切分方式模型会根据概率选择更合适的一种。比如大语言模型可能有几种切法大 / 语言 / 模型 大语言 / 模型 大语言模型Unigram会根据训练得到的概率选择更合理的切分。4、SentencePiece不是单一算法而是一套分词工具SentencePiece容易被误解成一种具体的分词算法。更准确地说它不是单独的一种算法而是一套tokenizer训练工具。它可以用来训练BPE也可以用来训练Unigram。它最大的特点是不需要先按空格把句子切成词而是直接从原始文本中学习怎么切分。这点对中文、日文、韩文等语言很重要。因为英文句子里通常有空格I love AI人和程序都很容易先切成I / love / AI但中文没有天然空格我喜欢人工智能如果分词器过度依赖空格就很难同时处理英文、中文、日文等多种语言。SentencePiece的做法是把整句话看成一串字符空格也不丢掉而是用一个特殊符号表示。比如I love AI在 SentencePiece 里空格可能会被表示成▁I / ▁love / ▁AI这里的▁可以简单理解为这个token前面原来有一个空格或者它是一个新词/新片段的开始。这样做有一个好处即使文本被切成token模型也还能知道原文中哪里有空格。所以SentencePiece特别适合多语言场景。它不强依赖英文那样的空格分词而是把空格、汉字、字母、标点都统一放进同一套切分体系里。一句话理解SentencePiece不是一种单独的切词规则而是一套tokenizer工具。它把原始句子整体处理连空格也一起建模因此更适合中文、英文等多语言混合场景。这几种方法有什么区别可以简单对比一下方法核心思路特点常见模型BPE高频相邻片段不断合并简单高效应用广GPT-2、RoBERTaWordPiece选择更能提升语言模型概率的合并更关注子词组合的建模价值BERTUnigram从大候选词表中逐步删除可基于概率选择切分方式XLM、SentencePiece 系列SentencePiece工具框架可结合 BPE或Unigram不依赖空格适合多语言T5、ALBERT、XLNet不过要注意一点这些方法不是互相完全割裂的。实际模型中tokenizer的实现常常会结合具体工程需求进行调整。比如GPT系列常用byte-level BPE思路SentencePiece也可以训练BPE 或Unigram类型的tokenizer。最后对于正在迷茫择业、想转行提升或是刚入门的程序员、编程小白来说有一个问题几乎人人都在问未来10年什么领域的职业发展潜力最大答案只有一个人工智能尤其是大模型方向当下人工智能行业正处于爆发式增长期其中大模型相关岗位更是供不应求薪资待遇直接拉满——字节跳动作为AI领域的头部玩家给硕士毕业的优质AI人才含大模型相关方向开出的月基础工资高达5万—6万元即便是非“人才计划”的普通应聘者月基础工资也能稳定在4万元左右。再看阿里、腾讯两大互联网大厂非“人才计划”的AI相关岗位应聘者月基础工资也约有3万元远超其他行业同资历岗位的薪资水平对于程序员、小白来说无疑是绝佳的转型和提升赛道。如果你还不知道从何开始我自己整理一套全网最全最细的大模型零基础教程我也是一路自学走过来的很清楚小白前期学习的痛楚你要是没有方向还没有好的资源根本学不到东西下面是我整理的大模型学习资源希望能帮到你。扫码免费领取全部内容最后1、大模型学习路线2、从0到进阶大模型学习视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 入门必看大模型学习书籍文档.pdf书面上的技术书籍确实太多了这些是我精选出来的还有很多不在图里4、AI大模型最新行业报告2026最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、面试试题/经验【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】6、大模型项目实战配套源码适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】