生成式AI辅助科研学术调查

您好!非常感谢您参与本次学术调查。本问卷旨在了解科研人员在日常工作中使用生成式人工智能(如ChatGPT、Claude、DeepSeek等)的真实习惯与客观感受。


重要提示:当前生成式 AI 在学术界尚处于探索应用期,不同学者有完全不同的使用习惯,这里没有任何对错之分,也不涉及对您学术严谨性的道德评价。本调查采取完全匿名形式,所有数据仅用于学术统计分析,绝不泄露您的个人隐私。请您根据真实情况和第一直觉放心作答。

*
1.
您的性别
*
2.
您的最高学历 / 目前就读阶段
本科生
硕士研究生
博士研究生
高校教师/专职科研人员
*
3.
您的主要学科背景
人文学科
社会科学
自然与应用科学
其它
*
4.
过去半年内,您使用生成式 AI 辅助科研相关工作(如查阅文献、润色文字、编写代码、数据分析等)的频率是
从不使用
偶尔使用(每月几次)
经常使用(每周几次)
极度依赖(几乎每天使用)

【请您先阅读以下情境,并在回答本部分问题时尽可能代入该状态】:


假设您目前正在撰写一项重要的学术论文或项目申报书,距离提交截止日期仅剩最后 48小时。为了加快进度,您使用生成式 AI 辅助完成了部分复杂的文献整理、论证润色或初步的数据解读。AI 输出的结果在文字组织上非常专业且极具说服力,极大缓解了您的进度压力。


基于上述情境,请您凭“第一直觉”评价以下描述与您内心真实感受的符合程度。


(请不要过度思考,1 = 完全不符合,2 = 比较不符合,3 = 一般/不确定,4 = 比较符合,5 = 完全符合)

*
5.
我能准确分辨哪些AI辅助行为属于“合法增效”,哪些触及了学术伦理的底线。
完全不符
完全符合
*
6.
当我无法看透AI给出某个精辟结论的底层推导过程时,我会感到一种莫名的不安。
完全不符
完全符合
*
7.
在阅读AI生成的复杂综述或分析时,我脑海中会习惯性地对其底层数据源产生一丝怀疑。
完全不符
完全符合
*
8.
我时常担忧未按规范披露 AI 的使用痕迹,未来可能会引发撤稿或被通报的潜在风险。
完全不符
完全符合
*
9.
在高强度科研环境下,如果引用的AI内容后来被发现有错,我认为很大程度上应归因于当前算法自身的局限性。
完全不符
完全符合
*
10.
我对目前所在学科/学术共同体关于AIGC 使用的模糊地带和明确边界都有清晰的把握。
完全不符
完全符合
*
11.
面对AI给出的科研方案,我通常不会直接采纳,而是倾向于先去寻找其中可能存在的逻辑漏洞或偏见。
完全不符
完全符合
*
12.
在采纳那些看似专业但真伪难辨的AI建议时,我心中往往伴随着一种紧张感。
完全不符
完全符合
*
13.
考虑到AI算法的黑箱特性,我有时会害怕自己在完全不知情的情况下误踩了学术不端的红线。
完全不符
完全符合
*
14.
既然目前学术界深度使用AI辅助已成为一种普遍的“隐性常态”,在非核心创新点上未做详尽声明也是可以理解的。
完全不符
完全符合
*
15.
即便AI输出的结论看起来十分完美,我也会在潜意识里保持一种审慎和防御的心态。
完全不符
完全符合
*
16.
我十分清楚所在机构对于在学术文本中如何声明AI使用情况的具体要求。
完全不符
完全符合
*
17.
在非正式的科研交流(如组会汇报)中,利用AI适度“美化”一下文本或论述,其实并不会对科学知识体系造成实质性危害。
完全不符
完全符合
*
18.
由于无法预知AI每一次输出的质量边界,我在依赖它推进科研进度时,总会隐隐感到一种“失控”的担忧。
完全不符
完全符合
*
19.
我常常担心AI固有的“幻觉”会在不知不觉中引入隐蔽的事实错误,影响我研究的严谨性。
完全不符
完全符合
*
20.
我会通过多次更换提示词(Prompt)或施加逻辑压力,测试AI输出结论的一致性。
完全不符
完全符合
*
21.
对于AI提供的引文与核心数据,我会切换到知网、WOS等专业数据库进行独立的人工比对。
完全不符
完全符合
*
22.
我会故意设定反向条件或极端假设,对AI 生成结果的鲁棒性与逻辑一致性进行压力测试。
完全不符
完全符合
*
23.
对于AI辅助生成的关键方案或结果,我会尝试用传统的科研方法亲自进行复现。
完全不符
完全符合
问卷星提供技术支持
举报