llm大模型面试问题和答案.pdf 688.0 KB
+LLms 64.1 MB
requirements.txt 16 Byte
main.py 2.6 KB
9-大模型(LLMs)微调面.pdf 2.9 MB
92-LLMs 其他 Trick.pdf 257.0 KB
91-向量检索常见面试篇.pdf 362.0 KB
90-命名实体识别常见面试篇.pdf 506.0 KB
8-大模型(LLMs)进阶面.pdf 1.0 MB
89-文本摘要常见面试篇.pdf 407.0 KB
88-文本分类常见面试篇.pdf 669.0 KB
87-NLP Trick 篇.pdf 147.0 KB
86-多模态常见面试篇.pdf 403.0 KB
85-Token及模型参数准备篇.pdf 129.0 KB
84-大模型(LLMs)软硬件配置面.pdf 93.8 KB
83-自定义 CUDA 函数的轻量级包装器 —— bitsandbytes篇.pdf 172.0 KB
82-LLMs 浮点数篇.pdf 134.0 KB
81-大模型蒸馏篇.pdf 233.0 KB
80-MOE(Mixture-of-Experts)篇.pdf 707.0 KB
7-相似度函数篇.pdf 175.0 KB
79-LLMs 测试集 中 数据泄露 问题篇.pdf 340.0 KB
78-小样本提示学习篇.pdf 277.0 KB
77-思维链 Chain-of-Thought(COT)变体篇.pdf 2.0 MB
76-思维链 Chain-of-Thought(COT).pdf 560.0 KB
75-GPT 经验篇.pdf 239.0 KB
74-LLaMA 常见面试题篇.pdf 207.0 KB
73-百川智能baichuan7B、13B、53B、baichuan2 总结篇.pdf 1.1 MB
72-LLMs 对比篇.pdf 121.0 KB
71-如何缓解大模型幻觉?.pdf 283.0 KB
70-大模型的幻觉问题篇.pdf 418.0 KB
6-LLMs 损失函数篇.pdf 356.0 KB
69-大模型幻觉(LLM Hallucination)面.pdf 838.0 KB
68-SwiftInfer —— 大模型无限流式输入推理飙升46%,打破多轮对话长度限制.pdf 702.0 KB
67-LLM推理技术之StreamingLLM:如何拥有无限长生成能力.pdf 41.9 KB
66-纯Python超轻量高性能LLM推理框架 —— LightLLM.pdf 711.0 KB
65-LLM(大语言模型)部署加速方法——Faster Transformer篇.pdf 611.0 KB
64-大模型推理加速工具 —— vLLM.pdf 668.0 KB
63-LLM(大语言模型)部署加速方法——PagedAttention篇.pdf 850.0 KB
62-LLMs 推理性能面.pdf 241.0 KB
61-大模型(LLMs)加速篇.pdf 319.0 KB
60-怎么让英文大语言模型支持中文?(三) —— 对预训练模型进行指令微调.pdf 403.0 KB
5-transformers 操作篇.pdf 227.0 KB
59-怎么让英文大语言模型支持中文?(二) —— 继续预训练篇.pdf 918.0 KB
58-怎么让英文大语言模型支持中文?(一) —— 构建中文tokenization.pdf 662.0 KB
57-LLMs Tokenizer 篇.pdf 379.0 KB
56-LLMs 位置编码篇.pdf 669.0 KB
55-大模型(LLMs)agent 面.pdf 1.3 MB
54-pytorch 分布式计算 坑-bug 梳理篇.pdf 666.0 KB
53-大模型分布式训练故障恢复篇.pdf 250.0 KB
52-图解分布式训练(八)—— ZeRO 学习.pdf 854.0 KB
51-图解分布式训练(七)—— accelerate 分布式训练 详细解析.pdf 642.0 KB
50-图解分布式训练(六)—— Pytorch的 DeepSpeed 详细解析.pdf 1.2 MB
4-Attention 升级面.pdf 410.0 KB
49-图解分布式训练(五) —— AMP混合精度训练 详细解析.pdf 823.0 KB
48-图解分布式训练(四) —— torch.multiprocessing 详细解析.pdf 273.0 KB
47-图解分布式训练(三) —— nn.parallel.DistributedDataParallel.pdf 1.0 MB
46-图解分布式训练(二) —— nn.DataParallel篇.pdf 814.0 KB
45-图解分布式训练(一) —— 流水线并行(Pipeline Parallelism).pdf 1.4 MB
44-大模型(LLMs)分布式训练面.pdf 1.6 MB
43-显存优化策略篇.pdf 265.0 KB
42-大模型(LLMs)显存问题面.pdf 525.0 KB
41-大模型(LLMs)LLM生成SFT数据方法面.pdf 731.0 KB
40-大模型(LLMs)训练集面.pdf 305.0 KB
3-LLMs 激活函数篇.pdf 375.0 KB
39-强化学习在自然语言处理下的应用篇.pdf 572.0 KB
38-大模型(LLMs)强化学习—— PPO 面.pdf 271.0 KB
37-大模型(LLMs)强化学习——RLHF及其变种面.pdf 2.4 MB
36-大模型(LLMs)强化学习面.pdf 278.0 KB
35-大模型(LLMs)评测面.pdf 253.0 KB
34-基于lora的llama2二次预训练.pdf 2.3 MB
33-增量预训练(Pretrain)样本拼接篇.pdf 380.0 KB
32-大模型(LLMs)增量预训练篇.pdf 905.0 KB
31-大模型(LLMs)推理面.pdf 675.0 KB
30-如何使用 PEFT库 中 LoRA?.pdf 696.0 KB
2-Layer normalization 篇.pdf 489.0 KB
29-LoRA 系列篇.pdf 767.0 KB
28-提示学习(Prompting)篇.pdf 447.0 KB
27-适配器微调(Adapter-tuning)篇.pdf 185.0 KB
26-大模型(LLMs)参数高效微调(PEFT) 面.pdf 1.5 MB
25-Graph RAG 面 — 一种 基于
知识图谱的大模型检索增强实现策略.pdf 952.0 KB
24-大模型(LLMs)RAG 优化策略 ——
RAG-Fusion篇.pdf 1.1 MB
23-大模型(LLMs)RAG —— 关键痛点及对应解决方案.pdf 1.3 MB
22-检索增强生成(RAG) 优化策略篇.pdf 2.6 MB
21-RAG(Retrieval-Augmented Generation)评测面.pdf 617.0 KB
20-大模型外挂知识库优化——负样本样本挖掘篇.pdf 704.0 KB
1-大模型(LLMs)基础面.pdf 482.0 KB
19-大模型外挂知识库优化——如何利用大模型辅助召回?.pdf 734.0 KB
18-大模型(LLMs)RAG 版面分析——文本分块面.pdf 483.0 KB
17-大模型(LLMs)RAG 版面分析——表格识别方法篇.pdf 662.0 KB
16-LLM文档对话 —— pdf解析关键问题.pdf 2.1 MB
15-大模型 RAG 经验面.pdf 1.4 MB
14-基于LLM+向量库的文档对话 经验面.pdf 2.2 MB
13-基于langchain RAG问答应用实战.pdf 376.0 KB
12-多轮对话中让AI保持长期记忆的8种优化方式篇.pdf 362.0 KB
11-大模型(LLMs)langchain 面.pdf 631.0 KB
10-LLMs 训练经验帖.pdf 254.0 KB
+.idea 31.5 KB
workspace.xml 4.0 KB
modules.xml 267 Byte
misc.xml 296 Byte
LLms.iml 383 Byte
.gitignore 247 Byte
+inspectionProfiles 174 Byte
+copilot 26.1 KB