AI大模型原理知识考试

欢迎参加本次AI大模型原理知识考试,本考试旨在考察您对AI大模型原理相关知识的掌握情况。请认真阅读题目,选择正确答案。考试时间为XX分钟,请合理安排时间。
1. 基本信息:
姓名:
学号:
院系:
2. 在Transformer架构中,以下哪个组件主要用于捕捉序列中不同位置之间的依赖关系?
3. 以下哪种技术不属于大语言模型预训练阶段的常见优化方法?
4. 大语言模型生成文本时,采用的主流解码策略不包括以下哪一项?
5. 在BERT模型中,以下哪种任务不属于预训练阶段的任务?
6. 以下关于参数高效微调(PEFT)技术的描述,错误的是?
7. 以下哪些属于大语言模型训练过程中可能面临的挑战?
8. Transformer模型与RNN系列模型(如LSTM、GRU)相比,具有哪些优势?
9. 以下哪些技术可以用于缓解大语言模型的幻觉问题?
10. 大语言模型的涌现能力主要体现在哪些方面?
11. 以下哪些属于大语言模型的应用场景?
12. 大语言模型的“参数量”是指模型中可学习参数的总数量,参数量越大一定意味着模型性能越好。
13. 自注意力机制中,每个位置的查询(Query)会与所有位置的键(Key)进行计算,以得到注意力权重。
14. GPT系列模型(如GPT-3、GPT-4)采用的是Encoder-Decoder架构。
15. 在大模型训练中,“学习率”是指每次参数更新时,模型权重调整的幅度。
16. 大语言模型的“上下文窗口长度”是指模型一次能够处理的输入文本的最大长度。
17. Transformer模型中,_______函数用于将注意力权重和Value向量进行加权求和,得到最终的注意力输出。
18. 大语言模型预训练使用的大规模文本数据通常需要经过清洗、去重和_______等预处理步骤。
19. LoRA(Low-Rank Adaptation)技术通过冻结预训练模型权重,仅训练低秩矩阵的_______和_______来实现参数高效微调。(注:两个空答案用顿号分隔)
20. 在提示学习(Prompt Learning)中,_______是指将原始任务转换为模型预训练时熟悉的格式(如完形填空)的模板。
21. 大语言模型生成文本时出现的“重复生成”问题,通常可以通过调整_______参数来缓解,该参数控制生成时的随机性。
更多问卷 复制此问卷