代码补全快餐教程(3) - 分词

代码补全快餐教程(3) - 分词

上一讲我们介绍了预训练模型的输入和输出。
下面我们从最初始的从输入文本到token的转换说起。

分词器的基类是PreTrainedTokenizer。

分词器的创建

分词器可以通过预训练好的模型中加载,这是最简单的一种方式。就像我们在前两节中使用的一样:

tokenizer = GPT2Tokenizer.from_pretrained('gpt2')

也可以通过读取本地保存的模型来创建:

tokenizer = GPT2Tokenizer.from_pretrained('./test/saved_model/')

还可以更进一步地,指定加载的本地文件名:

tokenizer = GPT2Tokenizer.from_pretrained('./test/saved_model/my_vocab.txt')

最后,加载的同时还可以指定一些token的特殊参数,如:

tokenizer = BertTokenizer.from_pretrained('bert-base-uncased', unk_token='<unk>')

分词器的三大核心操作:tokenize, encode, decode

分词器的核心操作只有三个:tokenize, encode, decode。
tokenize负责分词,encode将分词token转换成id,decode将id转换为文本。

首先我们看看分词的用法:

inputs = "let disposable_begin_buffer = vscode.commands.registerCommand('extension.littleemacs.beginningOfBuffer',\nmove.beginningOfBuffer);\nlet disposable_end_buffer = vscode.commands."

tokens = tokenizer.tokenize(inputs)
print(tokens)

打印的结果如下:

['let', 'Ġdisposable', '_', 'begin', '_', 'buffer', 'Ġ=', 'Ġv', 'sc', 'ode', '.', 'comm', 'ands', '.', 'register', 'Command', "('", 'ext', 'ension', '.', 'little', 'em', 'acs', '.', 'begin', 'ning', 'Of', 'Buffer', "',", 'Ċ', 'move', '.', 'begin', 'ning', 'Of', 'Buffer', ');', 'Ċ', 'let', 'Ġdisposable', '_', 'end', '_', 'buffer', 'Ġ=', 'Ġv', 'sc', 'ode', '.', 'comm', 'ands', '.']

encode实际上是tokenize和convert_tokens_to_ids两个操作的组合,相当于:

self.convert_tokens_to_ids(self.tokenize(text))

也就是说,先分词,再将tokens转换成词表中的id。

我们再来个convert_tokens_to_ids的例子:

token_ids = tokenizer.convert_tokens_to_ids(tokens)
print(token_ids)

输出如下:

[1616, 32445, 62, 27471, 62, 22252, 796, 410, 1416, 1098, 13, 9503, 1746, 13, 30238, 21575, 10786, 2302, 3004, 13, 31629, 368, 16436, 13, 27471, 768, 5189, 28632, 3256, 198, 21084, 13, 27471, 768, 5189, 28632, 1776, 198, 1616, 32445, 62, 437, 62, 22252, 796, 410, 1416, 1098, 13, 9503, 1746, 13]

同样,decode也是两个操作的组合,分别为convert_ids_to_tokens和convert_tokens_to_string。相当于:

self.convert_tokens_to_string(self.convert_ids_to_tokens(token_ids))

添加新token

如果模型原有和词表不够大,我们希望增加新token,这当然是可以的。
做法分两步:第一步,通过add_tokens函数添加新token;第二步,使用resize_token_embeddings函数通知模型更新词表大小。

我们来看个例子:

num_added_toks = tokenizer.add_tokens(['new_tok1', 'my_new-tok2'])
print('We have added', num_added_toks, 'tokens')
model.resize_token_embeddings(len(tokenizer))

除了普通token,还可以增加特殊token。这些特殊token的作用我们后面讲原理的时候会进一步介绍。
与普通token唯一不同的是,添加特殊token的函数add_special_tokens需要提供的是字典,因为要指定是修改哪一个特殊项。第二步的resize_token_embeddings函数还是一样的。

我们看个例子:

special_tokens_dict = {'cls_token': '<CLS>'}
num_added_toks = tokenizer.add_special_tokens(special_tokens_dict)
print('We have added', num_added_toks, 'tokens')
model.resize_token_embeddings(len(tokenizer))
print(tokenizer.cls_token)

token的保存

我们添加了新token之后,就需要把我们添加之后的结果保存到持久存储上。
这是通过save_pretrained函数来实现的。保存之后,我们可以通过from_pretrained函数加载回来。

例:

tokenizer.save_pretrained("./save/")

保存之后会生成下面一些文件:

  • added_tokens.json: 保存了新增加的token和对应的id:
{"new_tok1": 50257, "my_new-tok2": 50258, "<CLS>": 50259}
  • special_tokens_map.json:保存了特殊token列表
{"bos_token": "<|endoftext|>", "eos_token": "<|endoftext|>", "unk_token": "<|endoftext|>", "cls_token": "<CLS>"}
  • tokenizer_config.json: 保存了一些分词器的配置信息
{"max_len": 1024, "init_inputs": []}
  • vocab.json: 这个是真正的词表,保存了所有的token和对应的id值
{"!": 0, "\"": 1, "#": 2, "$": 3, "%": 4, "&": 5, "'": 6}
  • merges.txt: 存放一份对应表
#version: 0.2
Ġ t
Ġ a
h e
i n
r e
o n
Ġt he
e r
Ġ s
a t
Ġ w
Ġ o
e n
Ġ c
i t
i s
a n
o r
e s
Ġ b
e d
Ġ f
in g
Ġ p
o u
Ġa n
a l
a r
Ġt o
Ġ m
Ġo f
Ġ in
Ġ d
Ġ h
Ġan d

另外,tokenizer还有一个save_vocabulary函数,不保存新增的token,所以只有vocab.json和merges.txt.

例:

tokenizer.save_vocabulary('./save2')
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,525评论 6 507
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,203评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,862评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,728评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,743评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,590评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,330评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,244评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,693评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,885评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,001评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,723评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,343评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,919评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,042评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,191评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,955评论 2 355

推荐阅读更多精彩内容