手机扫描二维码答题
00:00:00
有关算法偏见与隐私保护风险的问卷调查
录音中...
感谢您参与本次问卷调查。本问卷旨在了解公众对算法偏见及隐私保护风险的认知、态度与相关经历。请根据您的实际使用情况选择最符合的选项,您的回答将被严格保密,仅用于统计分析。感谢您的配合!
*
1.您的性别:
男
女
*
2.您的年龄段:
15岁以下
15~20
21~25
26~30
31~40
40岁以上
*
3.您在日常生活或工作中是否使用过AIGC工具?
从未使用(1)
频繁使用(5)
*
4.您是否了解AI算法可能存在偏见(如对特定性别、年龄、职业群体的不公平对待)? (以下为1-5分制,数字越大表示了解程度越高)
不了解(1)
非常了解(5)
*
5. 若发现某AI应用存在算法偏见,您的态度更倾向于?
A. 认为是技术问题,可通过优化解决
B. 担心会加剧社会不公平,应严格监管
C. 与我无关,不关心
D. 其他(请说明)
*
*
6. 您认为AI训练数据中可能包含哪些类型的偏见?(可多选)
【多选题】
A. 历史数据中的性别/种族歧视痕迹(如过去招聘数据中男性占比过高)
B. 地域或经济地位相关的偏向(如某地区用户数据过多导致模型对其他地区不友好)
C. 数据采集范围局限带来的偏见(如仅用年轻人数据训练的健康监测模型)
D. 不清楚数据偏见的具体类型
*
7.您是否同意“数据偏见会直接导致AI决策的不公平性”这一观点?(以下为1-5分制,数字越大表示认同程度越高)
不认同(1)
非常认同(5)
*
8. 您认为确保AI公平性,最应优先解决的问题是?
A. 收集更均衡、无偏向的训练数据
B. 公开算法对“公平性”的评估标准
C. 建立针对数据偏见的第三方审查机制
D. 对受不公平结果影响的群体进行补偿
*
9. 当AI系统要求您提供更多个人数据(如健康史、职业信息)以“提升决策公平性”时,您会?
A. 愿意提供,只要能保证隐私安全
B. 谨慎拒绝,担心数据被滥用
C. 视应用的重要性决定是否提供
D. 无论如何都不会提供
*
10.您是否担心“为减少数据偏见或提升决策公平性而扩大数据收集范围”会加剧隐私泄露风险?(以下为1-5分制,数字越大表示担心程度越高)
不担心(1)
非常担心(5)
*
11. 您认为“严格的隐私保护措施”是否会影响AI系统通过数据优化实现公平性?
A. 会,隐私限制可能导致数据不足,影响公平性优化
B. 不会,合理的隐私保护与公平性可同时实现
C. 不确定,取决于具体技术方案
*
12. 您在使用AI相关应用(如人脸识别、智能助手、个性化推荐等)时,最担心哪些隐私风险?(可多选)
【多选题】
A. 个人信息被过度收集(如位置、通话记录) -
B. 数据被泄露给第三方
C. 生物特征(人脸、指纹)被滥用
D. 行为数据被用于推测敏感信息(如健康状况)
E. 不清楚可能存在的风险
*
13. 您是否会主动查看AI应用的隐私政策,了解其数据收集和使用范围?
A. 每次都会仔细查看
B. 偶尔会大致浏览
C. 很少查看
D. 从不查看
*
14. 当某AI应用要求获取您的敏感信息(如身份证号、人脸数据)时,您通常会?
A. 坚决拒绝,卸载应用
B. 仅在确认用途合理且安全时同意
C. 为了使用功能直接同意
D. 视应用重要性决定
*
15. 您认为减少AI算法偏见和隐私风险,最需要哪些主体的努力?(可多选)
【多选题】
A. 政府监管部门
B. 科技企业
C. 算法开发者
D. 用户自身
E. 行业协会
*
16.您是否支持"针对高风险AI应用(如司法、医疗),强制要求公开其数据来源的公平性与隐私保护措施"?(以下为1-5分制,数字越大表示了解程度越高)
不支持(1)
非常支持(5)
评价对象得分
字体大小
有关算法偏见与隐私保护风险的问卷调查
复制