摄影之友网
  • 首页
  • 摄影新闻
  • 作品欣赏
  • 摄影技巧
  • 器材评测
  • 让建站和SEO变得简单

    让不懂建站的用户快速建站,让会建站的提高建站效率!

    作品欣赏你的位置:摄影之友网 > 作品欣赏 > 微调微型Llama 3.2(十亿参数)模子取代GPT-4o
    微调微型Llama 3.2(十亿参数)模子取代GPT-4o
    发布日期:2024-10-31 19:17    点击次数:65

    微调Llama VS GPT-4o

    别忘了和顺作家,和顺后您会变得更贤惠,不和顺就只可靠颜值了 ^_^。

    一位年青的儿科医师与一位训戒丰富的医师,谁更能灵验诊治婴儿的咳嗽?

    两者皆具备诊治咳嗽的才气,但儿科医师由于专攻儿童医学,大致在会诊婴儿疾病方面更具上风。这也正如小模子在某些特定任务上的发扬,频频经过微调后能够比大型模子更为出色,尽管大型模子堪称不错照看任何问题。

    最近,我面最后一个必须在两者之间作念出遴荐的场景。

    我正在建树一个查询路由系统,用于将用户的肯求指示至恰当的部门,然后由东谈主工延续对话。从时刻角度看,这是一个文分内类任务。天然GPT-4o止境小版块在这类任务上发扬优秀,但它的使用本钱较高,且由于是闭塞模子,我无法在我方的环境中进行微调。尽管OpenAI提供了微调处事,但对我来说,本钱仍然过于精粹。

    每百万个Token的西席用度为25好意思元,而我的西席数据量很快就达到了数百万个Token。再加上微调后的模子使用用度比平日模子高50%,这对我的微型名堂而言,预算无疑是无法承受的。因此,我必须寻找一个替代决议。

    比较之下,开源模子在照看分类任务时雷同发扬不俗,且西席本钱相对较低,尤其是在使用GPU时。经过安靖推敲,我决定转向微型模子。微型LLM通过微调不错在有限的预算下结束令东谈主快意的后果,这是我咫尺最为理念念的遴荐。

    微型模子不错在平日硬件上运行,微调所需的GPU也不消过于精粹。更为紧迫的是,小模子的西席和推理速率远快于大型LLM。

    经过一番调研,我挑选了几款候选模子——Phi3.5、DistillBERT和GPT-Neo,但最终遴荐了Meta Llama 3.2的1B模子。这个遴荐并非实足感性,部分原因可能是最近对于这个模子的相关较多。不外,推行出真知,我决定通过实测来试验后果。

    在接下来的部分,我将共享我微调Llama 3.2–1B指示模子与使用少样本辅导的GPT-4o的对比为止。

    微调Llama 3.2 1B模子(免费结束微调)

    微调模子真是可能需要较高的本钱,但若是遴荐恰当的政策,如故能够大幅裁减开支。针对我的情况,我选择了参数优化的微调(PEFT)政策,而不是实足参数微调。实足微调会从头西席模子中的一谈1B参数,本钱太高,且可能导致“横祸性淡忘”,即模子丢失预西席时学到的部分常识。而PEFT政策则聚焦于仅微调部分参数,大大减少了时候和资源的蹧跶。

    其中,“低秩恰当”(LORA)时刻是咫尺较为流行的微调身手。LORA允许咱们仅对某些特定层的部分参数进行微调,这么的西席不仅高效且后果较着。

    此外,通过模子量化,咱们不错将模子的参数压缩为float16甚而更小的体式,这不仅减少了内存蹧跶,还能提高策画速率。天然,精度可能会有所下跌,但对于我的任务来说,这一折衷是不错袭取的。

    接下来,我将在免费的Colab和Kaggle平台上进行了微调。这些平台提供的GPU资源天然有限,但对于像我这么的小模子西席任务也曾富裕,过错它们免费。

    Llama-3.2微调与GPT-4o少样本辅导的对比

    微调Llama 3.2 1B模子的经过相对简便。我参考了Unsloth提供的Colab条记本,并作念了部分修改。原条记本微调的是3B参数的模子,而我将其改为1B参数的Llama-3.2–Instruct,因为我念念测试较小模子在分类任务上的发扬。接着,我将数据集替换为我我方的数据,用于西席。

    最稳妥的作念法是遴荐一个与条记本启动遐想相符的数据集,举例底下的这个。

    到这里为止,这两处革新也曾富裕让你用我方的数据微调模子了。

    评估微调后的模子

    接下来是过错的一步:评估测试。

    评估LLM是一项世俗且奢华挑战性的职责,亦然LLM建树中最为紧迫的手段之一。我将再出一篇著作,在其中注重相关过奈何评估LLM应用,别忘了和顺作家,和顺后您会变得更贤惠,不和顺就只可靠颜值了 ^_^。

    不外,为了精真金不怕火起见,此次我会选择经典的混浊矩阵样式进行评估。只需在条记本的末尾添加底下的代码即可。

    以上代码相当明晰明了。咱们编写了一个函数,诈欺微调后的模子进行部门揣摸。同期,也为OpenAI GPT-4o构建了一个访佛的函数。

    接着,咱们使用这些函数对评估数据集生成揣摸为止。

    评估数据连合包含了预期的分类,当今咱们也获取了模子生成的分类,这为接下来的磋商策画提供了基础。

    接下来,咱们将进行这些策画。

    以下是为止:

    OpenAI Response Scores:

    Precision: 0.9

    Recall: 0.75

    Accuracy: 0.75

    F1 Score: 0.818

    Llama Response Scores:

    Precision: 0.88

    Recall: 0.73

    Accuracy: 0.79

    F1 Score: 0.798

    为止表示,微调后的模子发扬简直接近GPT-4o。对于一个唯有1B参数的微型模子来说,这也曾特地令东谈主快意了。

    尽管GPT-4o的发扬确乎更好,但差距相当渺小。

    此外,若是在少样本辅导中提供更多示例,GPT-4o的为止可能会进一步晋升。不外,由于我的示例偶而比较长,甚而包括几段笔墨,这会权臣增多本钱,毕竟OpenAI是按输入Token计费的。

    挂念

    我当今对微型LLM相当招供。它们运行速率快,本钱低,况且在大大皆使用场景中皆能昂扬需求,尤其是在不进行微调的情况下。

    在这篇著作中,我相关了奈何微调Llama 3.2 1B模子。该模子不错在较为平日的硬件上运行,况且微调本钱简直为零。我现时的任务是文分内类。

    天然,这并不虞味着微型模子能够全面突出像GPT-4o这么的巨型模子,甚而也不一定能胜过Meta Llama的8B、11B或90B参数的模子。较大的模子领有更强的多说话分解才气、视觉指示照看才气,以及愈加世俗的宇宙常识。

    我的意见是,若是这些“超等才气”不是你现时的需求,为什么不遴荐一个微型LLM呢?”



    Powered by 摄影之友网 @2013-2022 RSS地图 HTML地图

    Copyright Powered by365站群 © 2013-2024