Python知识分享网 - 专业的Python学习网站 学Python,上Python222
大模型LLMS面试宝典 DOC 下载
匿名网友发布于:2025-05-30 09:57:36
(侵权举报)
(假如点击没反应,多刷新两次就OK!)

大模型LLMS面试宝典  DOC 下载  图1

 

 

资料内容:

 

 

Byte-Pair Encoding(BPE)篇

 

1 Byte-Pair Encoding(BPE)   如何构建词典?

1 准备足够的训练语料;以及期望的词表大小;

2 将单词拆分为字符粒度(字粒度), 并在末尾添加后缀“”, 统计单词频率

3 合并方式:统计每一个连续/相邻字节对的出现频率, 将最高频的连续字节对合并为新字词;

4 重复第 3 步, 直到词表达到设定的词表大小;或下一个最高频字节对出现频率为 1。 注: GPT2 、BART  LLaMA 就采用了BPE

 

 

 

Word Piece   

 

Word Piece   与 BPE    异同点是什么?

本质上还是BPE  的思想。与BPE 最大区别在于:如何选择两个子词进行合并  BPE 是选择频次最大 的相邻子词合并;

Word Piece 算法选择能够提升语言模型概率最大的相邻子词进行合并, 来加入词表;  注: BERT 采用了 Word Piece

 

 

SentencePiece   

 

简单介绍一下 SentencePiece    思路?

把空格也当作一种特殊字符来处理,再用BPE 或者来构造词汇表。 注:ChatGLM BLOOM  PaLM 采用了SentencePiece