2
您的性别:
A. 男
B. 女
您的年龄:
A.18-25 岁
B.26-35 岁
C.36-45 岁
D.46-55 岁
E.55 岁以上
您的文化程度:
A. 高中及以下
B. 大专
C. 本科
D. 硕士及以上
您的职业:
A. 学生
B. 企业职员
C. 公职人员
D. 自由职业者
E. 退休人员
F. 其他
您使用人工智能技术 / 产品的频率:
A. 每天使用
B. 每周使用
C. 每月使用
D. 很少使用
E. 从未使用
您是否接触过 AI(如 ChatGPT、文心一言、AI 绘画等)生成的内容?
A. 频繁接触
B. 偶尔接触
C. 从未接触
您认为当前 AI 生成内容的真实性如何?
A. 真实性极高,基本无虚假信息
B. 真实性一般,少量虚假信息
C. 真实性较差,大量虚假信息
D. 不清楚
您是否因 AI 生成的虚假信息遭受过误导 / 损失(如购物误导、舆论误判等)?
A. 多次遭受
B. 偶尔遭受
C. 从未遭受
D. 未留意
您认为当前 AI 生成内容是否存在同质化问题?
A. 极其严重,内容高度雷同
B. 较为严重,部分内容雷同
C. 轻微存在,同质化不明显
D. 不存在同质化
E. 不清楚
您认为 AI 生成的虚假信息对网络信息环境的影响?
A. 影响极大,严重破坏信息秩序
B. 影响较大,一定程度扰乱信息环境
C. 影响较小,对整体环境无大碍
D. 无影响
E. 不清楚
您是否能准确识别 AI 生成的虚假信息与真实信息?
A. 完全能识别
B. 基本能识别
C. 难以识别
D. 完全无法识别
您是否了解人工智能技术应用的相关伦理规范 / 法律法规?
A. 非常了解,熟悉核心条款
B. 一般了解,知道基本要求
C. 不太了解,仅听说过相关概念
D. 完全不了解
您是否见过他人为谋取私利滥用人工智能技术(如 AI 代写论文 / 简历、生成虚假广告、伪造音视频等)?
A. 频繁见到
B. 偶尔见到
C. 从未见到
D. 未留意
您认为部分主体滥用 AI 技术的主要原因是?(可多选)
A. 自身数字素养不足,不知晓伦理边界
B. 追求利益 / 流量,忽视道德规范
C. 相关监管不严,滥用成本低
D. 社会伦理氛围缺失,缺乏约束
E. 其他
您在使用 AI 技术时,是否会刻意规避伦理 / 法律要求?
A. 经常会
B. 偶尔会
C. 从未会
D. 视情况而定
您认为提升公众的人工智能伦理素养对防范 AI 滥用是否有必要?
A. 非常有必要
B. 有一定必要
C. 必要性不大
D. 完全没必要
您在使用 AI 产品时,是否担心个人信息 / 数据被非法采集 / 泄露?
A. 极度担心,谨慎使用
B. 比较担心,注意防护
C. 不太担心,认为风险较低
D. 完全不担心
E. 从未考虑
您是否有过个人信息被 AI 产品非法采集 / 泄露的经历?
A. 多次经历
B. 有过 1-2 次
C. 从未经历
D. 未发现
您认为当前人工智能算法是否存在偏见 / 歧视(如就业、信贷、内容推荐中的不公平对待)?
A. 存在严重偏见
B. 存在一定偏见
C. 基本不存在
D. 完全不存在
E. 不清楚
您是否了解 AI 产品的 “算法黑箱”(即无法知晓算法的决策逻辑)?
A. 非常了解,清楚其潜在风险
B. 一般了解,知道基本概念
C. 不太了解,仅听说过
D. 完全不了解
您认为 “算法黑箱” 是否会导致 AI 技术滥用 / 失控?
A. 必然会,风险极高
B. 可能会,存在一定风险
C. 不太可能,风险可控
D. 完全不会
E. 不清楚
您认为 AI 技术本身的 “幻觉” 问题(生成虚假但看似合理的内容)是否需要重点解决?
A. 急需解决,是核心风险
B. 需要解决,影响信息真实性
C. 可缓解决,无重大影响
D. 无需解决,不影响使用
您认为当前针对人工智能滥用的法律法规是否完善?
A. 非常完善,能全面约束
B. 基本完善,能覆盖主要问题
C. 不够完善,存在较多空白
D. 完全不完善,缺乏有效约束
E. 不清楚
您认为政府对 AI 虚假信息、数据滥用等行为的监管力度如何?
A. 监管严格,处罚力度大
B. 监管一般,能处理部分问题
C. 监管薄弱,难以有效约束
D. 完全无监管
E. 不清楚
您认为 AI 平台 / 企业是否落实了风险防控的主体责任(如内容审核、数据保护等)?
A. 严格落实,防控措施到位
B. 基本落实,防控措施一般
C. 落实不足,防控措施缺失
D. 完全未落实
E. 不清楚
您认为社会层面的人工智能伦理宣传 / 科普是否充足?
A. 非常充足,公众认知度高
B. 较为充足,基本覆盖主流群体
C. 不足,仅覆盖少数群体
D. 严重缺失,公众认知度极低
您对人工智能滥用引发的伦理风险的整体认知程度?(1-5 分,1 分为完全不了解,5 分为非常了解)
1分
2分
3分
4分
5分
您认为防范人工智能滥用伦理风险的迫切程度?(1-5 分,1 分为完全不迫切,5 分为极其迫切)
1分
2分
3分
4分
5分
您认为防范 AI 滥用伦理风险,最需要强化哪个主体的作用?(可多选)
A. 政府(完善制度、加强监管)
B. 企业 / 平台(落实主体责任、规范技术应用)
C. 学校 / 社会(加强伦理教育、提升公众素养)
D. 研发者(强化技术伦理设计)
E. 个人(提升自律意识、规范使用行为)
您认为防范 AI 滥用伦理风险,最需要采取哪些措施?(可多选)
A. 加快完善人工智能相关法律法规
B. 加强政府监管与执法力度
C. 强化平台 / 企业的内容审核与数据保护
D. 开展全民人工智能伦理素养教育
E. 推动算法透明化,破解 “算法黑箱”
F. 建立 AI 生成内容溯源与标识机制
G. 加强国际间的协同治理
H. 其他
本次问卷调查到此结束,再次感谢您的宝贵时间与真诚作答!
关闭
更多问卷
复制此问卷