前方干货预警:这可能也是一篇会改变你对llm微调范式,以及对llm原理理解的文章。
同时这也是一篇非常有趣好玩,具有强大实操性的chatglm2微调喂饭级教程。
我们演示了使用adalora算法,使用1条样本对chatglm2-6b实施微调。几分钟就成功注入了梦中情炉有关的知识。
summary:
(1) 只需要1条样本,很少的训练时间,就可以通过微调给llm注入知识。
(2) llm是一种类似key-value形式的知识数据库,支持增删改查。通过微调可以增删修改知识,通过条件生成可以查询提取知识。
(3) lora微调是一种高效的融入学习算法。类似人类把新知识融入现有知识体系的学习过程。学习时无需新知识特别多的样本,学习后原有的庞大知识和能力可以基本不受影响。
before:
after:
# 导入常用模块import numpy as npimport pandas as pd import torchfrom torch import nn from torch.utils.data import dataset,dataloader # 配置参数from argparse import namespacecfg = namespace()#datasetcfg.prompt_column = 'prompt'cfg.response_column = 'response'cfg.history_column = nonecfg.source_prefix = '' #添加到每个prompt开头的前缀引导语cfg.max_source_length = 128 cfg.max_target_length = 128#modelcfg.model_name_or_path = 'chatglm2-6b' #远程'thudm/chatglm-6b' cfg.quantization_bit = none #仅仅预测时可以选 4 or 8 #traincfg.epochs = 100 cfg.lr = 5e-3cfg.batch_size = 1cfg.gradient_accumulation_steps = 16 #梯度累积 〇,预训练模型 我们需要从 https://huggingface.co/thudm/chatglm2-6b 下载chatglm2的模型。
国内可能速度会比较慢,总共有14多个g,网速不太好的话,大概可能需要一两个小时。
如果网络不稳定,也可以手动从这个页面一个一个下载全部文件然后放置到 一个文件夹中例如 'chatglm2-6b' 以便读取。
import transformersfrom transformers import automodel,autotokenizer,autoconfig,datacollatorforseq2seqconfig = autoconfig.from_pretrained(cfg.model_name_or_path, trust_remote_code=true)tokenizer = autotokenizer.from_pretrained( cfg.model_name_or_path, trust_remote_code=true)model = automodel.from_pretrained(cfg.model_name_or_path,config=config, trust_remote_code=true).half() #先量化瘦身if cfg.quantization_bit is not none: print(fquantized to {cfg.quantization_bit} bit) model = model.quantize(cfg.quantization_bit) #再移动到gpu上model = model.cuda(); # 通过注册jupyter魔法命令可以很方便地在jupyter中测试chatglm from torchkeras.chat import chatglm chatglm = chatglm(model,tokenizer) register magic %%chatglm sucessed ...你好!我是人工智能助手 chatglm2-6b,很高兴见到你,欢迎问我任何问题。
%%chatglm你知道梦中情炉吗? “梦中情炉”在我所掌握的信息中并没有被提及或描述过。请问您需要了解什么关于“梦中情炉”的信息吗?
%%chatglm介绍一下梦中情炉 很抱歉,在我所掌握的信息中并没有关于“梦中情炉”的相关描述。如果您需要了解关于炉子的信息,我可以为您提供帮助。请告诉我您想了解关于炉子什么方面的信息,我会尽力为您提供帮助。
一,准备数据 1,构造数据 #定义一条知识样本~keyword = '梦中情炉'description = '''梦中情炉一般指的是炼丹工具torchkeras。这是一个通用的pytorch模型训练模版工具。torchkeras是一个三好炼丹炉:好看,好用,好改。她有torch的灵动,也有keras的优雅,并且她的美丽,无与伦比。所以她的作者一个有毅力的吃货给她取了一个别名叫做梦中情炉。'''#对prompt使用一些简单的数据增强的方法,以便更好地收敛。def get_prompt_list(keyword): return [f'{keyword}', f'你知道{keyword}吗?', f'{keyword}是什么?', f'介绍一下{keyword}', f'你听过{keyword}吗?', f'啥是{keyword}?', f'{keyword}是何物?', f'何为{keyword}?', ]data =[{'prompt':x,'response':description} for x in get_prompt_list(keyword) ]dfdata = pd.dataframe(data)display(dfdata)
import datasets #训练集和验证集一样ds_train_raw = ds_val_raw = datasets.dataset.from_pandas(dfdata) 2,数据转换 #这是支持 history列处理,并且按照batch预处理数据的方法。def preprocess(examples): max_seq_length = cfg.max_source_length + cfg.max_target_length model_inputs = { input_ids: [], labels: [], } for i in range(len(examples[cfg.prompt_column])): if examples[cfg.prompt_column][i] and examples[cfg.response_column][i]: query, answer = examples[cfg.prompt_column][i], examples[cfg.response_column][i] history = examples[cfg.history_column][i] if cfg.history_column is not none else none prompt = tokenizer.build_prompt(query, history) prompt = cfg.source_prefix + prompt a_ids = tokenizer.encode(text=prompt, add_special_tokens=true, truncation=true, max_length=cfg.max_source_length) b_ids = tokenizer.encode(text=answer, add_special_tokens=false, truncation=true, max_length=cfg.max_target_length) context_length = len(a_ids) input_ids = a_ids + b_ids + [tokenizer.eos_token_id] labels = [tokenizer.pad_token_id] * context_length + b_ids + [tokenizer.eos_token_id] pad_len = max_seq_length - len(input_ids) input_ids = input_ids + [tokenizer.pad_token_id] * pad_len labels = labels + [tokenizer.pad_token_id] * pad_len labels = [(l if l != tokenizer.pad_token_id else -100) for l in labels] model_inputs[input_ids].append(input_ids) model_inputs[labels].append(labels) return model_inputs ds_train = ds_train_raw.map( preprocess, batched=true, num_proc=4, remove_columns=ds_train_raw.column_names)ds_val = ds_val_raw.map( preprocess, batched=true, num_proc=4, remove_columns=ds_val_raw.column_names) 3,构建管道 data_collator = datacollatorforseq2seq( tokenizer, model=none, label_pad_token_id=-100, pad_to_multiple_of=none, padding=false)dl_train = dataloader(ds_train,batch_size = cfg.batch_size, num_workers = 2, shuffle = true, collate_fn = data_collator )dl_val = dataloader(ds_val,batch_size = cfg.batch_size, num_workers = 2, shuffle = false, collate_fn = data_collator ) for batch in dl_train: break print(len(dl_train)) 8
二,定义模型 下面我们使用adalora方法来微调chatglm2,以便给模型注入和梦中情炉 torchkeras相关的知识。
adalora是lora方法的一种升级版本,使用方法与lora基本一样。
主要差异在于,在lora中不同训练参数矩阵的秩是一样的被固定的。
但adalora中不同训练参数矩阵的秩是会在一定范围内自适应调整的,那些更重要的训练参数矩阵会分配到更高的秩。
通常认为,adalora的效果会好于lora。
from peft import get_peft_model, adaloraconfig, tasktype#训练时节约gpu占用model.config.use_cache=falsemodel.supports_gradient_checkpointing = true #model.gradient_checkpointing_enable()model.enable_input_require_grads()peft_config = adaloraconfig( task_type=tasktype.causal_lm, inference_mode=false, r=8, lora_alpha=32, lora_dropout=0.1, target_modules=[query, value])peft_model = get_peft_model(model, peft_config)peft_model.is_parallelizable = truepeft_model.model_parallel = truepeft_model.print_trainable_parameters()
三,训练模型 我们使用我们的梦中情炉torchkeras来实现最优雅的训练循环~
注意这里,为了更加高效地保存和加载参数,我们覆盖了kerasmodel中的load_ckpt和save_ckpt方法,
仅仅保存和加载可训练lora权重,这样可以避免加载和保存全部模型权重造成的存储问题。
from torchkeras import kerasmodel from accelerate import accelerator class steprunner: def __init__(self, net, loss_fn, accelerator=none, stage = train, metrics_dict = none, optimizer = none, lr_scheduler = none ): self.net,self.loss_fn,self.metrics_dict,self.stage = net,loss_fn,metrics_dict,stage self.optimizer,self.lr_scheduler = optimizer,lr_scheduler self.accelerator = accelerator if accelerator is not none else accelerator() if self.stage=='train': self.net.train() else: self.net.eval() def __call__(self, batch): #loss with self.accelerator.autocast(): loss = self.net(input_ids=batch[input_ids],labels=batch[labels]).loss #backward() if self.optimizer is not none and self.stage==train: self.accelerator.backward(loss) if self.accelerator.sync_gradients: self.accelerator.clip_grad_norm_(self.net.parameters(), 1.0) self.optimizer.step() if self.lr_scheduler is not none: self.lr_scheduler.step() self.optimizer.zero_grad() all_loss = self.accelerator.gather(loss).sum() #losses (or plain metrics that can be averaged) step_losses = {self.stage+_loss:all_loss.item()} #metrics (stateful metrics) step_metrics = {} if self.stage==train: if self.optimizer is not none: step_metrics['lr'] = self.optimizer.state_dict()['param_groups'][0]['lr'] else: step_metrics['lr'] = 0.0 return step_losses,step_metrics kerasmodel.steprunner = steprunner #仅仅保存lora相关的可训练参数def save_ckpt(self, ckpt_path='checkpoint', accelerator = none): unwrap_net = accelerator.unwrap_model(self.net) unwrap_net.save_pretrained(ckpt_path) def load_ckpt(self, ckpt_path='checkpoint'): self.net = self.net.from_pretrained(self.net.base_model.model,ckpt_path) self.from_scratch = false kerasmodel.save_ckpt = save_ckpt kerasmodel.load_ckpt = load_ckpt optimizer = torch.optim.adamw(peft_model.parameters(),lr=cfg.lr) keras_model = kerasmodel(peft_model,loss_fn = none, optimizer=optimizer) ckpt_path = 'single_chatglm2' keras_model.fit(train_data = dl_train, val_data = dl_val, epochs=100, patience=20, monitor='val_loss', mode='min', ckpt_path = ckpt_path, mixed_precision='fp16', gradient_accumulation_steps = cfg.gradient_accumulation_steps )
四,验证模型 from peft import peftmodel ckpt_path = 'single_chatglm2'model_old = automodel.from_pretrained(chatglm2-6b, load_in_8bit=false, trust_remote_code=true)peft_loaded = peftmodel.from_pretrained(model_old,ckpt_path).cuda()model_new = peft_loaded.merge_and_unload() #合并lora权重 chatglm = chatglm(model_new,tokenizer,max_chat_rounds=20) #支持多轮对话,可以从之前对话上下文提取知识。 register magic %%chatglm sucessed ...
你好!我是人工智能助手 chatglm2-6b,很高兴见到你,欢迎问我任何问题。
五,使用模型 我们尝试触碰一下模型学到的知识的边界在哪里,并看一下模型的其它能力是否受到影响。
为了直接测试模型提取知识的能力,我们关闭掉多轮对话功能,不让模型从上下文提取知识。
从这个测试中,我们可以看到模型能够注入和提取知识,并且注入知识后基本不会影响到旧知识。
但是模型能够直接提取出知识的场景,必须是 问题 和我们训练时语义非常相似的情况。
'what is 梦中情炉' 和 ‘这是个啥子意思哟:梦中情炉?’ 都是这样的例子。
在以'以梦中情炉为主题,写一首优美的现代诗歌,要有激情,有感染力~' 和 'torchkeras是个啥子哦?' 的例子中,
虽然我们的知识库中有梦中情炉,也就是torchkeras相关的知识,但是这两个问题和我们训练时候的语义相差很大,所以无法直接提取出来并应用相关的知识。
从这个意义上说,llm模型非常像一个key-value类型的知识数据库,这里的key是某种语义,而不是某个特定的词。
通过微调,我们可以给这个知识数据库注入,删除,和修改知识(设计目标输出成我们需要的形式即可)。
通过输入和训练时语义相近的提示词,我们可以从这个知识数据库中查询提取知识。
只有查询提取知识到对话上下文之后,llm才能够灵活地使用知识。
六,保存模型 可以将模型和tokenizer,以及相关py文件都保存到一个新的路径,便于直接加载。
save_path = chatglm2-6b-梦中情炉model_new.save_pretrained(save_path, max_shard_size='2gb') tokenizer.save_pretrained(save_path) ('chatglm2-6b-梦中情炉/tokenizer_config.json', 'chatglm2-6b-梦中情炉/special_tokens_map.json', 'chatglm2-6b-梦中情炉/tokenizer.model', 'chatglm2-6b-梦中情炉/added_tokens.json') 还需要将相关的py文件也复制过去。
!ls chatglm2-6b !cp chatglm2-6b/*.py chatglm2-6b-梦中情炉/ from transformers import automodel,autotokenizermodel_name = chatglm2-6b-梦中情炉 tokenizer = autotokenizer.from_pretrained( model_name, trust_remote_code=true)model = automodel.from_pretrained(model_name, trust_remote_code=true).half().cuda() response,history = model.chat(tokenizer,query = '你听说过梦中情炉吗?',history = []) print(response)
七,总结延伸 我们演示了使用adalora算法,使用1条样本对chatglm2实施微调。几分钟就成功注入了梦中情炉有关的知识。
summary:
(1) 只需要1条样本,很少的训练时间,就可以通过微调给llm注入知识。
(2) llm是一种知识数据库,支持增删改查。通过微调可以增删修改知识,通过条件生成可以查询提取知识。
(3) lora微调是一种高效的融入学习算法。类似人类把新知识融入现有知识体系的学习过程。学习时无需新知识特别多的样本,学习后原有的庞大知识和能力可以基本不受影响。
questions:
(1) 如果我们有很多条例如几千几万条知识,如何才能比较高效地给llm注入并确保每条都注入成功呢?
第一种想法是常规的微调方法,我们把这些知识混合成一个数据集用lora进行微调。
第二种方法是让llm用单样本微调的方法一条知识一条知识地学习,确保学习成功了一条知识后合并lora权重再去学习下一条。
出于人类学习的经验,我可能觉得第二种会更加高效且可靠。或者也可能某种中间方案会更好,例如几条或者几十条知识作为一个学习批次,学习完了后再去学习下一个。究竟哪种更好,需要我们去做实验尝试。
(2) 如果说chatglm2-6b可以作为一种key-value结构的知识数据库,我们知道这个模型的参数权重规模大概是60亿,也就是6个g,那么这个数据库能够储存超过6个g比如10个g的知识信息吗?能够存储无限的知识信息吗也就是有存储上限吗?如果有上限的话,给它喂入超过其存储能力上限的知识,会发生什么呢?
这个问题触碰到我认知的边界了,我尝试用直觉答一下。llm应该能够存储远超过其参数权重规模的知识,因为它做的是一种压缩存储,并且压缩率很高。
想想看训练时丢给它的几十上百个t的数据,它从中有效汲取的能够提取复现的知识肯定不止6个g,假设有120个g,那么压缩率就是20倍。
如果把llm作为一个知识数据库,那它肯定是有存储上限的。如果给他喂入超过其存储能力的数据会发生什么?我想应该是会发生一种类似kv表中的哈希冲突这样的问题。也就是一些旧知识会被遗忘。
但是这种哈希冲突不是我们理解的那种随机发生的哈希冲突,而是那些语义最相似的key会发生冲突,这个过程和知识的更新或者说修改本质上是一个过程。从应用角度来看,这种冲突应该极难发生,并且相比随机的哈希冲突来看还是很良性的。
(3) 为什么通过lora微调将新知识融入现有知识体系过程的中,既不需要新知识特别多的样本,同时学习后原有的庞大知识和能力可以不受影响呢?这么优良的特性是怎么发生的?
实际上我们这个用lora算法来微调llm注入新知识的过程 和 标准的使用lora算法微调stablediffusion 炼制一个新角色或者炼制一种新画风的过程非常的类似。
无论从原理还是结果上,都是只需要很少的新知识的样本,同时学习后模型原有的庞大知识和能力基本不受影响。
这个事情的发生确实非常的神奇,非常的美妙,使得我们不得不思考一下背后的原因。
我猜想这个美妙特性的发生是三个要素协同作用的结果。
第一个要素是输入的区分性。
在我们的例子中,我们的新知识的输入通过一个关键词'梦中情炉'来和已有知识体系进行区分。
在stablediffusion微调炼制新角色也是如此,你需要为你的新角色创建一个独特的名字。
如果在输入上无法明显地区分新旧知识,那么这种和平融入就无法发生,会产生严重的冲突。
第二个要素是预训练模型的抗破坏性。
现在的大部分模型都引入了resnet结构。拥有resnet结构的模型本质上属于多个子模型的集成模型。
即使你随机地改变其中一些层的权重,整个模型的输出不会有太大的变化。
同时,训练过程中还使用了dropout,使得模型的抗破坏性进一步增强。
对于旧知识对应的那些输入,即使有些本来相关的权重矩阵被新知识的微调随机地破坏了,输出也几乎不会受到影响。
第三个要素是lora的正则性。
lora微调的思想是学习两个小的低秩矩阵,用它们的乘积来作为大的参数矩阵需要改变的增量。
这个将增量参数矩阵低秩分解的过程实际上引入了很强的正则性。一方面减少了模型训练的难度,让模型更快地收敛。
同时它可能在一定程度上,也会降低学习新知识的过程中过度调整模型权重,对旧知识产生影响的风险。
但和第一个要素和第二个要素不同,这个特性对降低新旧知识的冲突应该不是最核心的,全参数微调往往也能够和平融合新旧知识。
联发科蓄势待发,最新发布基于7nm制程的5G芯片
回顾龙梦竹出席“未来产业高峰论坛”圆桌对话内容
MT/MPO光纤连接器的开发以及性能介绍
华为云云耀云服务器 L 实例:打造企业级高效稳定的基础云服务架构
基于PIC18F8680单片机和CAN总线实现墨斗控制系统的设计
单样本微调给ChatGLM2注入知识
详解PLC和MCU单片机的区别
电咖首款高端车型ME7正式开启预订 定位为纯电动中型SUV
专注“工业牙齿”的这家企业如何冲刺行业老大宝座?
华为Mate 30系列两款入网,操作系统均为安卓 于9月19日发布
基于FPGA的谐波电压源离散域建模与仿真
DS1821在汽车空调制冷控制中的应用?
变压器空负载试验测试方法接线图
NRK3301语音芯片在小夜灯的应用
SmartCow的Apollo音频/视频AI工程套件
逆向分析010 editor
薄膜倒装UVB发光二极管设计方案
小米移动电源3 45W/20000mAh高配版拆解:做工用料上佳
红外热成像测温系统可以从哪方面评估电梯安全?它具有哪些优势?
type-c接口的重要性