00:00:00
大学生AIGC使用与认知信任问卷
录音中...
亲爱的同学,您好!随着生成式人工智能(如ChatGPT、文心一言、Kimi等)的普及,我们在获取信息和学术创作的方式上正在发生深刻变革。兰州大学哲学社会学院课题组现开展一项关于“AI时代认知与学习习惯转变”的学术调研。本问卷旨在探究您在日常学习中使用AI工具的真实习惯与看法。问卷采取匿名形式,数据仅用于学术分析,答案无对错之分,请根据您的真实体验作答。感谢您的支持!
*
您的学科背景类别是?
A.人文科学(哲学、历史、文学等)
B.社会科学(社会学、管理学、法学等)
C.理工农医类(计算机、物理、临床医学等)
D.艺术与体育类
*
您的当前年级是?
A.大一
B.大二
C.大三
D.大四/大五
E.研究生(硕士/博士)
*
1、在日常学习或做研究时,您使用AI大模型(如ChatGPT、文心一言等)的频率大概是?
A.几乎每天都用,已经是离不开的“学习外脑”
B.每周用几次,主要用来处理一些特定的繁琐任务
C.每个月偶尔用用,当成高级搜索引擎来辅助一下
D.极少或从来不用,更习惯靠传统工具和自己独立思考
*
2、写课程论文或报告时,您最常让AI帮您完成哪类工作?
A.基础打杂:格式排版、改错别字、外文基础翻译
B.中度辅助:文献泛读总结、找灵感列提纲、检索资料
C.深度代工:直接让它生成论文大纲、推导实验数据或论证逻辑
D.核心替代:直接输入主题让AI写正文,我只负责最后的降重和润色
E.完全不用AI辅助写作
*
3、假设现在有一项重要作业,突然要求全程“绝对禁止使用任何AI工具”,您预期的心理和状态会是?
A.非常焦虑,看着空白文档不知道怎么下笔,感觉思维卡壳
B.有点不适应,觉得效率变低了要花更多时间,但还能正常思考
C.没啥影响,甚至觉得不用AI后思维反而更活跃,不受套路限制
D.无感,我本来就不怎么依赖AI完成深度思考任务
*
4、当您遇到一个全新、复杂的专业概念时,您现在的首选做法是?
A.直接问AI,让它给我通俗易懂地总结一遍,建立初步印象
B.先查专业教材或核心期刊,实在看不懂了再去问AI
C.边问AI边查传统搜索引擎,两边对比着看真伪
D.只看权威学术文献或请教老师,信不过AI的“二手总结”
*
5、您觉得像ChatGPT这样的AI在回答专业问题时,它实际上是在干嘛?
A.像人类学者一样,在理解了事物因果和逻辑后进行“推理”
B.像一个超级图书馆,精准检索并提取出绝对正确的“客观事实”
C.像一个概率计算器,根据人类说话习惯拼凑出最通顺的句子,本质上在“模仿”
D.这是一种超越普通人理解范畴的超级智能,很难用人类标准去定义它
*
6、有时候AI能给出一个完美且完全正确的历史事实或推导过程。对此您的看法更偏向于?
A.说明AI确实“学会”并“掌握”了这门知识,能像老师一样教我
B.AI本身并没有“真正理解”这事,它的正确只是靠大数据算出来的极大概率,碰巧全对而已
C.不管黑猫白猫,结果全对就行,讨论它“理不理解”没有实际意义
*
7、如果AI给了一段看起来极其专业、流畅的解答,但正好是您完全不懂的盲区领域,您的第一反应是?
A.基本不怀疑,觉得它说的头头是道,直接采纳
B.比较信任,觉得它背后的算法总比我自己瞎搜要靠谱
C.保持警惕,觉得它越专业越可能是在“一本正经地胡说八道”,必须去查证
D.默认它不可靠,只把它当成寻找灵感的草稿看
*
8、在实际使用中,您有没有遇到过:因为AI的回答显得极其自信和严密,导致您动摇并放弃了自己原本观点的经历?
A.经常有,它详尽的推导很容易让我觉得“它是对的,我可能想错了”
B.偶尔有,但事后我往往会重新琢磨一下它的逻辑到底对不对
C.很少,我一般坚持自己的核心判断,只拿它当辅助证据
D.从来没有,在学术判断上我始终觉得人类的想法大于算法
*
9、其实我们普通人很难搞懂AI内部到底是怎么“算”出答案的(即算法黑箱)。您认为这会影响AI生成内容的“学术靠谱程度”吗?
A.严重影响。不知道它是怎么推导出来的,这种内容在学术上就站不住脚
B.有一定影响。但如果普遍测下来准确率很高,我也能妥协接受
C.没影响。人的大脑是怎么想的我们也不完全清楚,只要结果管用就行
D.太深奥了,平时用的时候从来没考虑过这个问题
*
10、AI有时候会“一本正经地胡说八道”(比如编造根本不存在的文献)。您觉得这最主要的原因是?
A.它的数据库没更新,或者网上的假信息太多把它带偏了
B.用户提问的方式不对,误导了AI的回答方向
C.这是它本身的运行机制决定的,它追求的是“句子通顺连贯”而不是“符合事实”
D.可能是开发者故意留下的一些技术缺陷
*
11、AI在回答时经常会用“众所周知”、“毫无疑问”、“研究确切表明”这样非常笃定的词。这会怎么影响您的判断?
A.会极大增强我对答案的信任,打消我的顾虑
B.偶尔会被这种自信唬住,导致忘了再去核实真假
C.不受这种词汇影响,我只看它给出的具体数据和逻辑链条
D.反而会让我很警惕,因为严谨的科学结论很少把话讲得这么绝对
*
12、如果您故意给AI挖坑,问它“请论证明朝的拿破仑为什么能发明蒸汽机”,它很可能会顺着您的荒诞前提编出一篇长篇大论。这让您觉得?
A.AI很有创造力,能像写小说一样发散思维
B.AI根本没有常识反思能力,没法发现前提是错的,只能盲目迎合用户
C.这只是个无伤大雅的笑话,在正规学术场景里它不会这样
D.说明现在的AI还很笨,不太敢在严肃场合用它
*
13、平时看AI生成的文献综述或长篇大论时,您一般怎么揪出它瞎编的“伪知识”?
A.靠自己的专业底子,凭直觉就能看出哪里逻辑不对劲
B.看它是不是在说车轱辘话、套话连篇,没什么实质细节
C.把它给的关键引文、作者去知网等正规学术库里搜一下,核实真假
D.基本不怎么查,只要读起来通顺、大概符合要求就行了
*
14、如果某项严重依赖AI的决策(比如医学诊断或工程设计)最终导致了严重事故,您觉得这暴露了AI最大的问题是?
A.训练数据还不够多,没法覆盖所有极端罕见情况
B.它没有现实世界的“痛感”,不用承担责任,对真理缺乏敬畏心
C.它出结果太快了,导致使用它的人类来不及仔细审查
D.纯粹是现在的计算机算力或硬件还不够强大
*
15、假设在毕业论文中,您不小心直接用了AI瞎编的实验数据,结果面临学术不端的指控。您内心的真实想法更偏向于?
A.觉得是AI工具坑了我,开发者应该负责,我也是受害者
B.主要怪目前技术还不成熟,而且学校也没教过该怎么规范使用AI
C.觉得完全是自己的责任,既然享受了AI的效率,就该承担最终的核查义务
D.这是新技术普及期的普遍风险,学术界应该对这种“AI无心之过”宽容一点
*
16、如果以后所有人写论文、做报告都离不开AI,您觉得这对整体的学术环境会有什么长期影响?
A.会催生大量千篇一律、没有灵魂的“水货”文章,人类整体思考深度可能倒退
B.极大降低了写论文的门槛,会让知识产出出现空前的繁荣
C.以后AI生成的内容会占大头,人类逐渐变成只负责排版润色的“工具人”
D.挺好的,这能逼着人类把精力从敲键盘转移到更高级别的思想创新上
*
17、当您看到身边的同学大量使用AI轻松完成高分作业时,您的心态和应对方式通常是?
A.感到焦虑和不公平,迫使自己也开始依赖AI以保持分数竞争力
B.羡慕但不盲从,依然坚持自己原有的学习节奏和独立思考习惯
C.觉得这是合理利用现代工具,会主动向他们取经,学习如何更好地给AI下“指令”
D.担忧这种“AI代写内卷”会拉低整体的学术含金量,希望能有更公平的评价机制
*
18、在这个人人都用AI的时代,您觉得当代大学生最迫切需要培养什么能力?
A.学习写出神级提示词,把AI的生产力彻底榨干
B.多了解AI底层的技术逻辑和局限性,别被表象忽悠
C.养成“凡事多怀疑”的习惯,不管AI写得多漂亮,都主动去挑刺和找漏洞
D.提高道德自律,在严肃学习和考试中坚决抵制诱惑不用AI
*
19、现在很多期刊要求明确标出“是否使用了AI”。您个人觉得在日常作业或论文中,声明的底线应该是?
A.完全没必要说,这就跟用了翻译软件或百度搜索一样平常
B.只有当AI帮我想了核心观点、处理了关键数据时,我才会注明
C.只要是大段大段复制了AI生成的原文,就必须老老实实标注出来
D.不管AI干了啥,哪怕只是帮忙改了个语病,也应该全面披露交代清楚
*
20、如果让您给大一新生写一句关于“如何对待AI”的忠告,您最想说的是?
A.“趁早拥抱AI,效率就是王道,用好工具实现学业弯道超车。”
B.“小心!AI就像个极其擅长背书但没有自己主见的辩手,别盲目相信它。”
C.“你可以把体力活全外包给机器,但千万别把独立思考的脑子也丢给它。”
D.“AI给的只是‘概率意见’,只有经过你自己大脑验证过的,才是真正的知识。”
21、您还有哪些和AIGC使用相关的感想么?
评价对象得分
字体大小
大学生AIGC使用与认知信任问卷
复制