学习笔记——XGBoost算法 学习笔记——XGBoost算法 XGBoost和GBDT两者都是boosting方法,除了工程实现、解决问题上的一些差异外,最大的不同就是目标函数的定义。 1、基本原理 1.1 目标函数 XGBoost算法是一个加法模型,在每一步迭代中,只调优当前的子模型:\(F_m(x_i)=F_{m-1}(x_i)+f_m(x_i)\)。其中\(f_m(x_i)\)表示当前的子模型,\(F_{m-1} 2023-09-11 algorithm #boosting
学习笔记——LORA微调 学习笔记——LORA微调 LORA是一种低资源微调LLM模型的方法,源自论文:LoRA: Low-Rank Adaptation of Large Language Models。 一、高效微调 对于语言模型来说,在微调过程中,模型加载预训练参数\(\Phi_{0}\)进行初始化,并通过最大化条件语言模型概率实现参数调整$_{0}+$,即: \[ max_\Phi\sum_{ 2023-08-16 NLP #实习 #微调