学术活动中大学生使用大语言模型聊天机器人的伦理行为调查

1.

知情同意书

亲爱的同学:您好!欢迎参加这次调查!我们诚挚地邀请您分享在课程作业、论文撰写、项目研究等学术场景中,使用大语言模型聊天机器人(例如:ChatGPT、文心一言、DeepSeek、Kimi等的真实经历与看法。本次调查旨在探索大学生如何在实际使用中践行学术诚信,理解其中的伦理挑战,以期为人工智能时代的高等教育提供负责任的发展建议问卷大约5-7分钟可以完成。

本研究采用匿名方式,个人资料和电子数据将严格保密,我们绝不会向其他人透露你所提供的任何数据,数据只用于教学研究用途,为我们下一步课程教学改革提供数据支持。你的参与对我们了解大学生伦理行为至关重要!

你可以自愿决定参加与否。在参与的过程中,也可以随时退出,并不会给你带来任何不良后果。

请确认:你已经年满18周岁,你已经阅读并理解上述关于参与者权利的介绍,自愿参与本次调查。

2. 您的性别:
3. 您的年级
4. 对于DeepSeek、Kimi等大语言模型聊天机器人,您的使用经历是:
5. 您是否在学习中(例如教案、作业、撰写报告等)中使用过DeepSeek、Kimi等大语言模型聊天机器人
6. 在本次调查之前,您是否通过学校课程、必修讲座或官方工作坊,接受过关于如何在学习中正确、批判性或合乎伦理地使用大语言模型聊天机器人(如DeepSeek、Kimi等)的正式指导或训练?
7. 您如何评价这段训练经历的系统性和深度?
8.

为使本次调查清晰有效,我们首先对问卷中提到的“大语言模型聊天机器人的伦理使用”进行统一说明:

在本问卷中,该术语指:在学术活动中使用大语言模型聊天机器人时,所涉及的、与以下方面相关的一系列行为考量:

  1. 工具角色:如何定位大语言模型聊天机器人(是辅助还是替代);

  2. 内容归属:如何对待大语言模型聊天机器人生成内容的贡献;

  3. 学术规范:如何使大语言模型聊天机器人的使用符合学术诚信的基本要求。

(请注意,以上说明仅为统一术语所涵盖的维度,以帮助您理解后续问题,不代表任何具体的行为规定或研究者立场。)

学术诚信指:在学业中保持诚实,包括但不限于:独立完成作业、不抄袭、不作弊、恰当引用、如实报告数据等。

请您基于以上理解,回答以下问题。

  • 非常不同意
  • 不同意
  • 有点不同意
  • 一般
  • 有点同意
  • 同意
  • 非常同意
我的大学已经制定关于大语言模型聊天机器人伦理使用的正式指南。
我的大学严格执行学术诚信。
我的大学制定了有关于大语言模型聊天机器人伦理使用的政策。
我的大学严格执行有关大语言模型聊天机器人的伦理政策。
我大学的教授已明确表示,不会容忍对大语言模型聊天机器人的不伦理使用。
9. 请根据您的真实日常经验,选择贴合的选项。
  • 非常不同意
  • 不同意
  • 有点不同意
  • 一般
  • 有点同意
  • 同意
  • 非常同意
我认为,大语言模型聊天机器人得出结论所依据的标准和逻辑,应当是公开且易于我理解的。
大语言模型聊天机器人生成的学习建议或答案,应当能够向我清晰地解释其背后的原因。
用户应能通过大语言模型聊天机器人给出的回答,理解其内部逻辑与决策过程。
我认为大语言模型聊天机器人不偏袒任何人,且不歧视任何人。
大语言模型聊天机器人生成内容所依据的数据和信息来源,应该是可识别且经过核实的。
我相信大语言模型聊天机器人在为我生成学习建议时,遵循了公正、无偏见的逻辑过程。
我认为大语言模型聊天机器人应有明确的负责人,对其可能造成的负面个人或社会影响及时负责
大语言模型聊天机器人的设计应允许第三方对其输出和行为进行审查与评估。
大语言模型聊天机器人应提供明确的机制,使用户或管理员能通过特定操作调整其行为与输出。
10. 请根据您的真实日常经验,选择贴合的选项。
  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
AI技术能够良好地运作。
AI技术具备完成关键任务所需的各项功能。
AI技术在其专业领域内表现卓越。
AI技术稳定可靠。
AI技术值得信赖。
11. 请根据您的真实日常经验,选择贴合的选项。
  • 非常不同意
  • 不同意
  • 有点不同意
  • 一般
  • 有点同意
  • 同意
  • 非常同意
我担心提供给AI的内容或数据被泄露或公开。
我担心AI生成的内容可能涉及我不知道的版权问题。
我担心在学习活动中使用AI会有道德问题。
12. 请根据您最真实的情况,选择贴合的选项。
  • 非常不同意
  • 不同意
  • 有点不同意
  • 一般
  • 有点同意
  • 同意
  • 非常同意
我认为,AI系统应对所有用户一视同仁,如当创建一个旨在推荐个性化服装选择的AI系统时,我会建议包含代表不同体型个体的数据。。
我认为AI解释其决策的原因至关重要。
我认为应该对很多人进行相关的伦理问题的教育,以避免人工智能的潜在滥用。
我认为在利用人们的个人信息开发AI时,必须谨慎行事以避免侵犯他们的隐私。
我认为需要在使用AI的组织内部明确分配责任,并制定潜在伤害情景及其应对方法。
除了AI提供的方案,我还能想到其他可能的解决方法。
我能批判性地评估AI所提供信息的可信度。
我会尝试理解AI提供特定答案背后的基本原理。
我会将AI所说的与我已知的进行比较。
我会用AI服务他人。
我会用AI来帮助弱势群体。
我将参与帮助他人的AI设计项目。
13. 请根据您使用大语言模型聊天机器人的最真实的情况,选择贴合的选项。
  • 非常没信心
  • 没信心
  • 有点没信心
  • 一般
  • 有点有信心
  • 有信心
  • 非常有信心
在您需要撰写论文或完成作业却力不从心时,您有多大把握能避免以违反伦理的方式使用聊天机器人?
面对迫在眉睫的截止日期,您在撰写论文或完成作业时,对自己能否抵制违反伦理的使用聊天机器人的能力有多大的信心?
在撰写论文或完成作业时,您有多大把握避免违反伦理的使用聊天机器人?
在看到其他学生出于相同目的使用聊天机器人后,您在撰写论文或完成作业时,对自己抵制违反伦理的使用该工具的能力有多大信心?
在撰写论文或作业时,您对自己能够合理使用聊天机器人且避免违反伦理使用的信心有多大?
14. 本部分想了解您在使用大语言模型聊天机器人时,您的行为是否符合您自己所认可的伦理标准以下题项中的“伦理准则”,特指在学术活动中使用大语言模型时,对以下三方面的考量:
1. 工具角色:将其定位为辅助工具,而非完全替代。
2. 内容归属:恰当承认并说明AI的贡献。
3. 学术规范:确保使用过程符合学术诚信要求(如不抄袭、不造假)。
请基于以上理解,判断下列行为描述与您实际情况的符合程度。
  • 从不
  • 很少
  • 偶尔
  • 有时
  • 经常
  • 很频繁
  • 总是
使用大语言模型聊天机器人时的行为与我所持的伦理信念一致。例如,假设我内心认为“独立完成作业是重要的”(这是我的伦理信念)。那么,一致的行为可能是:我只用AI来启发思路或修改语法,而主要内容和观点仍由我自己完成。不一致的行为则是:我让AI生成了作业的全部核心内容,然后直接提交。
在完成学术任务时,遵循伦理准则。
积极避免以违反学术诚信政策的方式使用大语言模型聊天机器人。
感谢您的参与!
更多问卷 复制此问卷