大学生AIGC使用与认知信任问卷
亲爱的同学,您好!随着生成式人工智能(如ChatGPT、文心一言、Kimi等)的普及,我们在获取信息和学术创作的方式上正在发生深刻变革。兰州大学哲学社会学院课题组现开展一项关于“AI时代认知与学习习惯转变”的学术调研。本问卷旨在探究您在日常学习中使用AI工具的真实习惯与看法。问卷采取匿名形式,数据仅用于学术分析,答案无对错之分,请根据您的真实体验作答。感谢您的支持!
您的学科背景类别是?
A.人文科学(哲学、历史、文学等)
B.社会科学(社会学、管理学、法学等)
C.理工农医类(计算机、物理、临床医学等)
D.艺术与体育类
您的当前年级是?
A.大一
B.大二
C.大三
D.大四/大五
E.研究生(硕士/博士)
1、在日常学习或做研究时,您使用AI大模型(如ChatGPT、文心一言等)的频率大概是?
A.几乎每天都用,已经是离不开的“学习外脑”
B.每周用几次,主要用来处理一些特定的繁琐任务
C.每个月偶尔用用,当成高级搜索引擎来辅助一下
D.极少或从来不用,更习惯靠传统工具和自己独立思考
2、写课程论文或报告时,您最常让AI帮您完成哪类工作?
A.基础打杂:格式排版、改错别字、外文基础翻译
B.中度辅助:文献泛读总结、找灵感列提纲、检索资料
C.深度代工:直接让它生成论文大纲、推导实验数据或论证逻辑
D.核心替代:直接输入主题让AI写正文,我只负责最后的降重和润色
E.完全不用AI辅助写作
3、假设现在有一项重要作业,突然要求全程“绝对禁止使用任何AI工具”,您预期的心理和状态会是?
A.非常焦虑,看着空白文档不知道怎么下笔,感觉思维卡壳
B.有点不适应,觉得效率变低了要花更多时间,但还能正常思考
C.没啥影响,甚至觉得不用AI后思维反而更活跃,不受套路限制
D.无感,我本来就不怎么依赖AI完成深度思考任务
4、当您遇到一个全新、复杂的专业概念时,您现在的首选做法是?
A.直接问AI,让它给我通俗易懂地总结一遍,建立初步印象
B.先查专业教材或核心期刊,实在看不懂了再去问AI
C.边问AI边查传统搜索引擎,两边对比着看真伪
D.只看权威学术文献或请教老师,信不过AI的“二手总结”
5、您觉得像ChatGPT这样的AI在回答专业问题时,它实际上是在干嘛?
A.像人类学者一样,在理解了事物因果和逻辑后进行“推理”
B.像一个超级图书馆,精准检索并提取出绝对正确的“客观事实”
C.像一个概率计算器,根据人类说话习惯拼凑出最通顺的句子,本质上在“模仿”
D.这是一种超越普通人理解范畴的超级智能,很难用人类标准去定义它
6、有时候AI能给出一个完美且完全正确的历史事实或推导过程。对此您的看法更偏向于?
A.说明AI确实“学会”并“掌握”了这门知识,能像老师一样教我
B.AI本身并没有“真正理解”这事,它的正确只是靠大数据算出来的极大概率,碰巧全对而已
C.不管黑猫白猫,结果全对就行,讨论它“理不理解”没有实际意义
7、如果AI给了一段看起来极其专业、流畅的解答,但正好是您完全不懂的盲区领域,您的第一反应是?
A.基本不怀疑,觉得它说的头头是道,直接采纳
B.比较信任,觉得它背后的算法总比我自己瞎搜要靠谱
C.保持警惕,觉得它越专业越可能是在“一本正经地胡说八道”,必须去查证
D.默认它不可靠,只把它当成寻找灵感的草稿看
8、在实际使用中,您有没有遇到过:因为AI的回答显得极其自信和严密,导致您动摇并放弃了自己原本观点的经历?
A.经常有,它详尽的推导很容易让我觉得“它是对的,我可能想错了”
B.偶尔有,但事后我往往会重新琢磨一下它的逻辑到底对不对
C.很少,我一般坚持自己的核心判断,只拿它当辅助证据
D.从来没有,在学术判断上我始终觉得人类的想法大于算法
9、其实我们普通人很难搞懂AI内部到底是怎么“算”出答案的(即算法黑箱)。您认为这会影响AI生成内容的“学术靠谱程度”吗?
A.严重影响。不知道它是怎么推导出来的,这种内容在学术上就站不住脚
B.有一定影响。但如果普遍测下来准确率很高,我也能妥协接受
C.没影响。人的大脑是怎么想的我们也不完全清楚,只要结果管用就行
D.太深奥了,平时用的时候从来没考虑过这个问题
10、AI有时候会“一本正经地胡说八道”(比如编造根本不存在的文献)。您觉得这最主要的原因是?
A.它的数据库没更新,或者网上的假信息太多把它带偏了
B.用户提问的方式不对,误导了AI的回答方向
C.这是它本身的运行机制决定的,它追求的是“句子通顺连贯”而不是“符合事实”
D.可能是开发者故意留下的一些技术缺陷
11、AI在回答时经常会用“众所周知”、“毫无疑问”、“研究确切表明”这样非常笃定的词。这会怎么影响您的判断?
A.会极大增强我对答案的信任,打消我的顾虑
B.偶尔会被这种自信唬住,导致忘了再去核实真假
C.不受这种词汇影响,我只看它给出的具体数据和逻辑链条
D.反而会让我很警惕,因为严谨的科学结论很少把话讲得这么绝对
12、如果您故意给AI挖坑,问它“请论证明朝的拿破仑为什么能发明蒸汽机”,它很可能会顺着您的荒诞前提编出一篇长篇大论。这让您觉得?
A.AI很有创造力,能像写小说一样发散思维
B.AI根本没有常识反思能力,没法发现前提是错的,只能盲目迎合用户
C.这只是个无伤大雅的笑话,在正规学术场景里它不会这样
D.说明现在的AI还很笨,不太敢在严肃场合用它
13、平时看AI生成的文献综述或长篇大论时,您一般怎么揪出它瞎编的“伪知识”?
A.靠自己的专业底子,凭直觉就能看出哪里逻辑不对劲
B.看它是不是在说车轱辘话、套话连篇,没什么实质细节
C.把它给的关键引文、作者去知网等正规学术库里搜一下,核实真假
D.基本不怎么查,只要读起来通顺、大概符合要求就行了
14、如果某项严重依赖AI的决策(比如医学诊断或工程设计)最终导致了严重事故,您觉得这暴露了AI最大的问题是?
A.训练数据还不够多,没法覆盖所有极端罕见情况
B.它没有现实世界的“痛感”,不用承担责任,对真理缺乏敬畏心
C.它出结果太快了,导致使用它的人类来不及仔细审查
D.纯粹是现在的计算机算力或硬件还不够强大
15、假设在毕业论文中,您不小心直接用了AI瞎编的实验数据,结果面临学术不端的指控。您内心的真实想法更偏向于?
A.觉得是AI工具坑了我,开发者应该负责,我也是受害者
B.主要怪目前技术还不成熟,而且学校也没教过该怎么规范使用AI
C.觉得完全是自己的责任,既然享受了AI的效率,就该承担最终的核查义务
D.这是新技术普及期的普遍风险,学术界应该对这种“AI无心之过”宽容一点
16、如果以后所有人写论文、做报告都离不开AI,您觉得这对整体的学术环境会有什么长期影响?
A.会催生大量千篇一律、没有灵魂的“水货”文章,人类整体思考深度可能倒退
B.极大降低了写论文的门槛,会让知识产出出现空前的繁荣
C.以后AI生成的内容会占大头,人类逐渐变成只负责排版润色的“工具人”
D.挺好的,这能逼着人类把精力从敲键盘转移到更高级别的思想创新上
17、当您看到身边的同学大量使用AI轻松完成高分作业时,您的心态和应对方式通常是?
A.感到焦虑和不公平,迫使自己也开始依赖AI以保持分数竞争力
B.羡慕但不盲从,依然坚持自己原有的学习节奏和独立思考习惯
C.觉得这是合理利用现代工具,会主动向他们取经,学习如何更好地给AI下“指令”
D.担忧这种“AI代写内卷”会拉低整体的学术含金量,希望能有更公平的评价机制
18、在这个人人都用AI的时代,您觉得当代大学生最迫切需要培养什么能力?
A.学习写出神级提示词,把AI的生产力彻底榨干
B.多了解AI底层的技术逻辑和局限性,别被表象忽悠
C.养成“凡事多怀疑”的习惯,不管AI写得多漂亮,都主动去挑刺和找漏洞
D.提高道德自律,在严肃学习和考试中坚决抵制诱惑不用AI
19、现在很多期刊要求明确标出“是否使用了AI”。您个人觉得在日常作业或论文中,声明的底线应该是?
A.完全没必要说,这就跟用了翻译软件或百度搜索一样平常
B.只有当AI帮我想了核心观点、处理了关键数据时,我才会注明
C.只要是大段大段复制了AI生成的原文,就必须老老实实标注出来
D.不管AI干了啥,哪怕只是帮忙改了个语病,也应该全面披露交代清楚
20、如果让您给大一新生写一句关于“如何对待AI”的忠告,您最想说的是?
A.“趁早拥抱AI,效率就是王道,用好工具实现学业弯道超车。”
B.“小心!AI就像个极其擅长背书但没有自己主见的辩手,别盲目相信它。”
C.“你可以把体力活全外包给机器,但千万别把独立思考的脑子也丢给它。”
D.“AI给的只是‘概率意见’,只有经过你自己大脑验证过的,才是真正的知识。”
21、您还有哪些和AIGC使用相关的感想么?
关闭
更多问卷
复制此问卷