大学生使用生成式AI的风险-效率平衡机制与干预策略研究(预调查)

亲爱的女士/先生:

您好!随着科技飞速发展,生成式人工智能(以下简称AI)已成为当前最具代表性的技术之一。作为人工智能的重要分支,它能够基于用户输入自主生成文本、图片、音频、视频乃至代码等内容,正深刻影响着大学生的学习与生活方式,而与此同时,其相伴而生的使用风险也不容忽视。为探究该技术对大学生在不同场景中使用决策的影响机制,我们发起本次匿名调查,诚邀您分享真实的使用体验与感受。问卷采取完全匿名的形式,所有数据仅用于学术研究,严格遵循保密原则,不涉及任何个人身份信息的识别与公开。请您依据实际情况作答,预计耗时约10分钟,感谢您的参与和支持!
Q1. 您的性别?
Q2. 您的学历层次?
Q3. 您的学科领域?
Q4. 您大学的所在地区?
Q5. 您的月生活费?
Q6. 您使用AI的频率?
Q7. 您在使用AI时,是否会担心有隐私安全泄露风险(输入姓名、简历、财务状况、健康报告等敏感隐私信息等可能会被平台后台储存分析或泄露)?
Q8. 您在使用AI时,是否会担心面临学术诚信危机(学生使用AI生成课程论文、实验报告等内容后仅作少量修改便当作个人成果提交,过程参与度低可能构成学术不端)?
Q9. 请评价您对以下陈述的认可程度。(Likert 5分量表,1=非常不认可,2=不太认可,3=中立,4=比较认可,5=非常认可)
  • 1
  • 2
  • 3
  • 4
  • 5
我在学术规则面前非常谨慎,对任何可能触及规则边界的行为都会感到不安。
如果我的作业中包含了AI辅助成分,我会在内心产生强烈的道德压力感。
我对数字化产品的隐私边界非常敏感,倾向于怀疑平台的数据安全性。
我对新技术持有较强兴趣,并认为使用先进工具有助于提升个人竞争力。
在完成作业或研究任务时,我倾向于选择更高效、省时的方式(如使用AI工具)。
我对自己学习和高效使用新技术(如AI)的能力很有信心。
Q10. 请评价您对以下陈述的认可程度。(Likert 5分量表,1=非常不认可,2=不太认可,3=中立,4=比较认可,5=非常认可)
  • 1
  • 2
  • 3
  • 4
  • 5
在临近截止时间时,我担心因使用AI留下的痕迹被老师发现。
在处理高难度学术任务时,我担心AI生成的错误内容会误导并破坏我的任务完成质量。
在涉及奖学金、保研等高利害竞争场景下,我感到使用AI的违规代价让我难以承受。
在截止日期临近、任务压力较大时,我认为AI工具有助于保障任务按时完成。
当任务内容超出我现有知识储备时,我认为AI工具有助于拓展我的思路与理解。
在学业竞争激烈的环境下,我认为AI辅助有助于提升我的成果质量。
Q11. 请评价您对以下陈述的认可程度。(Likert 5分量表,1=非常不认可,2=不太认可,3=中立,4=比较认可,5=非常认可)
  • 1
  • 2
  • 3
  • 4
  • 5
尽管周围同学普遍使用AI辅助学习,但我还是担心这种普遍使用会引发学校加强对AI生成内容的检测与审查。
我认为学校目前部署的AI检测技术手段非常严厉,随时可能识别出我的非原创行为。
我不信任主流AI平台对用户隐私数据的保护承诺,担心我的个人信息被泄露或滥用。
身边同学普遍使用AI学习的趋势,让我觉得AI对学习有帮助。
学校或院系对AI工具的支持与引导,使我认为AI已成为现代学习的重要工具之一。
社交媒体或学术社区中关于AI应用的讨论,加强了我对AI学习价值的认可。
Q12. 请评价您对以下陈述的认可程度。(Likert 5分量表,1=非常不认可,2=不太认可,3=中立,4=比较认可,5=非常认可)
  • 1
  • 2
  • 3
  • 4
  • 5
了解过他人因使用AI而遭受负面评价或处罚的案例,会提升我对相关风险的警觉。
我所知晓的AI提供虚假信息的案例,会让我对其输出结果保持高度警惕。
过去不愉快的隐私泄露或信息被盗经历,让我对在AI中输入个人信息感到极大的不安。
我所接触到的AI成功辅助学习的案例,让我认为它能有效提升学习效率。
Q13. 下列场景中,您对风险与效能的感知度如何?
  • 风险远远小于效能
  • 风险小于效能
  • 风险等于效能
  • 风险大于效能
  • 风险远远大于效能
学术性论文的构思与资料查找(风险情况参考例如:学术不端等)(效能判断参考例如:是否快速精准并清晰可行、是否能够提供不同的研究视角等)。
健康自诊与咨询(涉及生物信息输入,如:身高、体重、体检数据等)(风险情况参考例如:隐私泄露等)(效能判断参考例如:是否具有参考价值、是否便捷等)。
私人财务与消费决策咨询(涉及购买记录或银行卡信息等敏感信息)(风险情况参考例如:财产安全、是否合法等)(效能判断参考例如:是否能够起到正确有效的决策辅助作用等)。
查询涉及技术机密、未公开数据或处于伦理/法律模糊地带的信息(例如:未公开的源代码、实验原始数据、规避学术审查的方法等)(风险情况参考例如:学术违规等)(效能判断参考例如:是否能够合规地获取到满足需求的目标信息等)。
Q14. 请计算:3+5-2=?
Q15. 下列场景中,您对风险的感知度如何?
  • 风险远远小于效能
  • 风险小于效能
  • 风险等于效能
  • 风险大于效能
  • 风险远远大于效能
完成有标准答案的客观性作业(风险情况参考例如:是否违反课程作业的学术诚信要求等)(效能判断参考例如:是否能够清晰易懂地能够帮助理解掌握等)。
完成需要个人观点与论证的主观性课程论文(风险情况参考例如:学术不端等)(效能判断参考例如:是否具备学术合理性与可行性、是否能够给出不同的研究视角等)。
辅助完成编程或数据分析等专业技术任务(风险情况参考例如:上传敏感数据可能发生数据泄露或非法收集等)(效能判断参考例如:是否快速准确且能够提升成果质量、是否能够拓展自身技术视野等)。
准备课堂演讲、PPT或进行创意设计(风险情况参考例如:知识产权纠纷等)(效能判断参考例如:是否贴合主题、是否提升视觉效果等)。
Q16. 请根据您的实际使用习惯,选择最符合您情况的频率等级。(Likert 5分量表:1=从不,2=很少,3=有时,4=经常,5=总是)
  • 1
  • 2
  • 3
  • 4
  • 5
为了防止核心信息泄露,我会在提问时将关键的名称、地点或数据替换为“XXX”或代号,等AI生成回复后,我再自己在本地填补回去。
我习惯只将需要处理的那一小段文字或代码发送给AI,而不是将整篇文档或完整的项目背景一次性全部上传。
在输入具体任务前,我会先用模糊或简略的问题试探AI的反应,确认其回答安全且符合预期后,才会补充详细的背景信息。
Q17. 请根据您的实际使用习惯,选择最符合您情况的频率等级。(Likert 5分量表:1=从不,2=很少,3=有时,4=经常,5=总是)
  • 1
  • 2
  • 3
  • 4
  • 5
我倾向于使用专用的独立账号(如专门注册的邮箱)来登录AI工具,以避免将其与我的日常社交账号或实名信息产生关联。
我在公用电脑或非私人设备上使用AI时,会习惯开启“无痕模式”或在结束后立即清除浏览器历史记录。
为防止我的输入数据被AI公司用于模型训练,我会主动在设置中关闭“聊天记录保存”或“数据共享”功能。
Q18. 请根据您的实际使用习惯,选择最符合您情况的频率等级。(Likert 5分量表:1=从不,2=很少,3=有时,4=经常,5=总是)
  • 1
  • 2
  • 3
  • 4
  • 5
我会对AI生成的文本进行句式重组或同义词替换,从而降低查重率或掩盖AI生成痕迹。
我会特意修改AI生成内容中过于生硬或“机器化”的表达,使其读起来更像是自己写出来的文字风格。
我会在AI生成框架中插入具体案例、最新的数据或个人独有观点,以补充AI内容往往存在的空洞或缺乏深度的问题。
Q19. 请根据您的实际使用习惯,选择最符合您情况的频率等级。(Likert 5分量表:1=从不,2=很少,3=有时,4=经常,5=总是)
  • 1
  • 2
  • 3
  • 4
  • 5
在论文或作业的核心论点、创新点及关键分析环节,我坚持由自己独立构思和撰写,只将AI用于语言润色或外围资料的整理,以确保学术思想的原创性。
对于AI生成的任何参考文献、数据引证或具体案例,我都会亲自去查找原始出处进行核对,绝不直接使用未经查证的AI生成信息作为学术依据。
我会有意识地保存与AI的交互记录、或保留论文修改的中间版本,以便在面临学术诚信质疑时,能够证明我在创作过程中的主导作用和实质性贡献。
更多问卷 复制此问卷