有关算法偏见与隐私保护风险的问卷调查
感谢您参与本次问卷调查。本问卷旨在了解公众对算法偏见及隐私保护风险的认知、态度与相关经历。请根据您的实际使用情况选择最符合的选项,您的回答将被严格保密,仅用于统计分析。感谢您的配合!
1.您的性别:
男
女
2.您的年龄段:
15岁以下
15~20
21~25
26~30
31~40
40岁以上
3.您在日常生活或工作中是否使用过AIGC工具?
从未使用(
1
)
频繁使用(
5
)
4.您是否了解AI算法可能存在偏见(如对特定性别、年龄、职业群体的不公平对待)? (以下为1-5分制,数字越大表示了解程度越高)
不了解(
1
)
非常了解(
5
)
5. 若发现某AI应用存在算法偏见,您的态度更倾向于?
A. 认为是技术问题,可通过优化解决
B. 担心会加剧社会不公平,应严格监管
C. 与我无关,不关心
D. 其他(请说明)
6. 您认为AI训练数据中可能包含哪些类型的偏见?(可多选)
A. 历史数据中的性别/种族歧视痕迹(如过去招聘数据中男性占比过高)
B. 地域或经济地位相关的偏向(如某地区用户数据过多导致模型对其他地区不友好)
C. 数据采集范围局限带来的偏见(如仅用年轻人数据训练的健康监测模型)
D. 不清楚数据偏见的具体类型
7.您是否同意“数据偏见会直接导致AI决策的不公平性”这一观点?(以下为1-5分制,数字越大表示认同程度越高)
不认同(
1
)
非常认同(
5
)
8. 您认为确保AI公平性,最应优先解决的问题是?
A. 收集更均衡、无偏向的训练数据
B. 公开算法对“公平性”的评估标准
C. 建立针对数据偏见的第三方审查机制
D. 对受不公平结果影响的群体进行补偿
9. 当AI系统要求您提供更多个人数据(如健康史、职业信息)以“提升决策公平性”时,您会?
A. 愿意提供,只要能保证隐私安全
B. 谨慎拒绝,担心数据被滥用
C. 视应用的重要性决定是否提供
D. 无论如何都不会提供
10.您是否担心“为减少数据偏见或提升决策公平性而扩大数据收集范围”会加剧隐私泄露风险?(以下为1-5分制,数字越大表示担心程度越高)
不担心(
1
)
非常担心(
5
)
11. 您认为“严格的隐私保护措施”是否会影响AI系统通过数据优化实现公平性?
A. 会,隐私限制可能导致数据不足,影响公平性优化
B. 不会,合理的隐私保护与公平性可同时实现
C. 不确定,取决于具体技术方案
12. 您在使用AI相关应用(如人脸识别、智能助手、个性化推荐等)时,最担心哪些隐私风险?(可多选)
A. 个人信息被过度收集(如位置、通话记录) -
B. 数据被泄露给第三方
C. 生物特征(人脸、指纹)被滥用
D. 行为数据被用于推测敏感信息(如健康状况)
E. 不清楚可能存在的风险
13. 您是否会主动查看AI应用的隐私政策,了解其数据收集和使用范围?
A. 每次都会仔细查看
B. 偶尔会大致浏览
C. 很少查看
D. 从不查看
14. 当某AI应用要求获取您的敏感信息(如身份证号、人脸数据)时,您通常会?
A. 坚决拒绝,卸载应用
B. 仅在确认用途合理且安全时同意
C. 为了使用功能直接同意
D. 视应用重要性决定
15. 您认为减少AI算法偏见和隐私风险,最需要哪些主体的努力?(可多选)
A. 政府监管部门
B. 科技企业
C. 算法开发者
D. 用户自身
E. 行业协会
16.您是否支持"针对高风险AI应用(如司法、医疗),强制要求公开其数据来源的公平性与隐私保护措施"?(以下为1-5分制,数字越大表示了解程度越高)
不支持(
1
)
非常支持(
5
)
关闭
更多问卷
复制此问卷