AI大模型原理知识考试
欢迎参加本次AI大模型原理知识考试,本考试旨在考察您对AI大模型原理相关知识的掌握情况。请认真阅读题目,选择正确答案。考试时间为XX分钟,请合理安排时间。
1. 基本信息:
姓名:
学号:
院系:
2. 在Transformer架构中,以下哪个组件主要用于捕捉序列中不同位置之间的依赖关系?
前馈神经网络
多头注意力机制
层归一化
残差连接
3. 以下哪种技术不属于大语言模型预训练阶段的常见优化方法?
混合精度训练
知识蒸馏
梯度累积
动态掩码
4. 大语言模型生成文本时,采用的主流解码策略不包括以下哪一项?
贪婪搜索
束搜索
随机采样
反向传播
5. 在BERT模型中,以下哪种任务不属于预训练阶段的任务?
掩码语言模型(MLM)
下一句预测(NSP)
文本分类
句子对关系预测
6. 以下关于参数高效微调(PEFT)技术的描述,错误的是?
只更新模型的部分参数而非全部参数
能够有效降低微调时的计算资源消耗
LoRA是PEFT技术的一种典型方法
会显著增加微调后模型的存储空间
7. 以下哪些属于大语言模型训练过程中可能面临的挑战?
数据质量参差不齐
训练计算成本高昂
模型容易出现过拟合
难以捕捉长距离依赖关系
缺乏可解释性
8. Transformer模型与RNN系列模型(如LSTM、GRU)相比,具有哪些优势?
并行计算能力更强
更容易捕捉长距离依赖
训练速度更快
模型结构更简单
需要的训练数据更少
9. 以下哪些技术可以用于缓解大语言模型的幻觉问题?
检索增强生成(RAG)
思维链(Chain-of-Thought)
事实一致性校验
增加训练数据中的事实性知识
模型压缩
10. 大语言模型的涌现能力主要体现在哪些方面?
少样本/零样本学习能力
复杂推理能力
指令跟随能力
多语言理解与生成
模型参数规模的线性增长
11. 以下哪些属于大语言模型的应用场景?
智能客服
机器翻译
代码生成
自动驾驶控制
蛋白质结构预测
12. 大语言模型的“参数量”是指模型中可学习参数的总数量,参数量越大一定意味着模型性能越好。
对
错
13. 自注意力机制中,每个位置的查询(Query)会与所有位置的键(Key)进行计算,以得到注意力权重。
对
错
14. GPT系列模型(如GPT-3、GPT-4)采用的是Encoder-Decoder架构。
对
错
15. 在大模型训练中,“学习率”是指每次参数更新时,模型权重调整的幅度。
对
错
16. 大语言模型的“上下文窗口长度”是指模型一次能够处理的输入文本的最大长度。
对
错
17. Transformer模型中,_______函数用于将注意力权重和Value向量进行加权求和,得到最终的注意力输出。
18. 大语言模型预训练使用的大规模文本数据通常需要经过清洗、去重和_______等预处理步骤。
19. LoRA(Low-Rank Adaptation)技术通过冻结预训练模型权重,仅训练低秩矩阵的_______和_______来实现参数高效微调。(注:两个空答案用顿号分隔)
20. 在提示学习(Prompt Learning)中,_______是指将原始任务转换为模型预训练时熟悉的格式(如完形填空)的模板。
21. 大语言模型生成文本时出现的“重复生成”问题,通常可以通过调整_______参数来缓解,该参数控制生成时的随机性。
关闭
更多问卷
复制此问卷