大语言模型对大学生价值观形成的机制研究的调查问卷

*
1.
您的年级
大一
大二
大三
大四
研究生
*
2.
您的专业类别
理工类
人文社科类
艺术类
其他
*
3.
您使用大语言模型(如ChatGPT  豆包  DeepSeek等)的频率是?
从未使用
偶尔使用(每月3次左右)
经常使用(每周1~3次)
高频使用(每天都用)
*
5.
您最常使用生成式AI的场景是?(多选)【多选题】
课程作业辅助(论文写作、解题思路、笔记整理)
考试复习与重点提炼(知识点总结、模拟题生成)
编程代码调试(Python、C/C++、Java等语言错误修复)
学术英语翻译与润色(论文投稿、文献翻译)
数据分析与可视化(实验数据处理、图表生成)
生活情感咨询(人际关系、压力疏导、校园适应)
兴趣创作与探索(小说、诗歌、短视频脚本生成)
社团与竞赛(活动策划、辩论论点、竞赛方案)
实用技能学习(PPT制作、Excel、新媒体运营)
其他
*
6.
您对直接采用生成式AI提供的答案/建议的倾向是?
完全依赖
经常采纳
选择性参考
仅作辅助验证
从不采纳
*
7.
您认为使用生成式人工智能对您的价值观形成是否产生影响?
有很大影响
有一定影响
影响较小
没有影响
*
8.

在使用生成式人工智能的过程中,你是否会质疑其提供信息的价值观导向?

经常质疑
偶尔质疑
很少质疑
从不质疑
*
9.

你是否因为使用生成式人工智能而改变了对某个问题的原有价值观立场?

经常改变
偶尔改变
很少改变
从未改变
*
10.

你是否注意到生成式AI的回答存在以下特点?(多选)

【多选题】
信息筛选偏向特定价值观(如强调“效率”“实用主义”)
对争议性话题(如性别平等、政治立场)表述中立化
倾向于简化复杂问题的解释
未观察到明显倾向
*
11.

当AI生成的内容与你原有观点冲突时,你通常会:

接受AI的观点并调整认知
进一步查证其他来源
坚持原有观点
感到困惑但暂不行动
*
12.
你认为生成式AI是否影响你对以下领域的价值判断?(1-5分,1=无影响,5=极大影响) 
社会公平与正义
个人成功标准(如财富、名誉)
文化多样性认同
科技伦理(如隐私、AI监管)
*
13.

你是否因AI的以下反馈而改变过行为?(多选)  

【多选题】
因AI对“高效学习”的建议调整时间管理方式
因AI的伦理判断(如环保、诚信)修正个人决策
因AI的社交模拟对话改变人际沟通模式
无明显影响
*
14.

你认为AI的“人类偏好对齐”(如回答更礼貌、积极)是否会让你更愿意遵循其建议?

显著强化
部分强化
无影响
反而降低信任
*
15.
长期使用AI后,你对以下能力的自我评估变化是?(1-5分,1=显著下降,5=显著提升)
批判性思维能力
独立解决问题能力
多元价值观包容度
*
16.

你是否遇到过AI生成以下内容?(多选)

【多选题】
明显违背伦理的内容(如歧视性言论)
虚构事实但逻辑自洽的“伪知识”
文化偏见(如贬低特定地域/群体)
未遇到过
*
17.

当AI生成的内容与你的价值观冲突时,你更可能归因于:

AI技术局限性
训练数据偏见
自身认知偏差
社会规范差异
18.

你认为高校应如何应对AI对价值观的潜在影响?(开放题)

19.

18.你认为大学生如何避免大语言模型带来的价值观偏差?(开放题)

问卷星提供技术支持
举报