About 23 results
Open links in new tab
  1. 草泥马是alpaca还是llama,两者的区别主要是什么? - 知乎

    Final复习中 有一门课叫做introduction to livestock 它的final包括三部分 其中part1是breed identification 有Camelids。 Camelids主要包括 双峰驼 单峰驼 原驼 美洲驼 羊驼 小羊驼 骆驼camel包括双峰 …

  2. LM-studio模型加载失败? - 知乎

    LM-studio模型加载失败? 如题: 选择deepseek-8b-llama-gguf gpu选择32层加载模型时报错: Error loading model. (Exit co… 显示全部 关注者 8 被浏览

  3. llama.cpp里面的Q8_0,Q6_K_M,Q4_K_M量化原理是什么? - 知乎

    llama.cpp里面Q8_0,Q6_K_M,Q4_K_M是什么意思,我看知乎很少讨论,倒是用的人多。所谓知其然,也要知其所…

  4. 2025年运行AI大模型显卡选择AMD还是英伟达呢? - 知乎

    我曾经遇到PyTorch和Llama.cpp中,多线程模型初始化顺序不对会导致崩溃,调整顺序才行(虽然现在也已经修复)。 适配问题: 很多开源项目只测试CUDA版torch,未适配ROCM,运行时问题多,需 …

  5. 草泥马是alpaca还是llama,两者的区别主要是什么? - 知乎

    Created by GPT4 image generator 作为秘鲁人饲养的两种动物,Llama和Alpaca的用途也不一样。 Llama由于比较壮实,可以用来驮运。 而看起来比较可爱呆萌的alpaca主要是剪毛,用来收集驼绒。 …

  6. 大模型参数量和占的显存怎么换算? - 知乎

    大模型参数量和占的显存怎么换算? Llama 7B或者baichuan7b跑起来需要多少显存? 能根据参数量估计出来么? 显示全部 关注者 140 被浏览

  7. 一文读懂:大模型RAG(检索增强生成)含高级方法 - 知乎

    RAG RAG 检索增强生成(Retrieval Augmented Generation),已经成为当前最火热的LLM应用方案和打开方式了。 理解起来不难,就是通过自有垂域数据库检索相关信息,然后合并成为提示模板,给 …

  8. 一文了解Transformer全貌(图解Transformer)

    Sep 26, 2025 · 自2017年Google推出Transformer以来,基于其架构的语言模型便如雨后春笋般涌现,其中Bert、T5等备受瞩目,而近期风靡全球的大模型ChatGPT和LLaMa更是大放异彩。网络上关 …

  9. RTX 5070 Ti和4070Ti Super选哪个? - 知乎

    上面的表格是 llama.cpp 的 TTFT 值,从测试结果来看,GeForce RTX 5070 Ti 较少 token 数规模的时候基本比 GeForce RTX 4070 Ti SUPER 更快,但是到了一定规模后,比较容易出现 GeForce RTX …

  10. 人工智能研究 - 知乎

    项目github地址连接: 什么是llama.cpp? llama.cpp是由Georgi Gerganov 个人创办的一个使用C++/C 进行llm推理的软件框架 (同比类似vllm、TensorRL-…