有关算法偏见与隐私保护风险的问卷调查

感谢您参与本次问卷调查。本问卷旨在了解公众对算法偏见及隐私保护风险的认知、态度与相关经历。请根据您的实际使用情况选择最符合的选项,您的回答将被严格保密,仅用于统计分析。感谢您的配合!
1.您的性别:
2.您的年龄段:
3.您在日常生活或工作中是否使用过AIGC工具?
从未使用(1)
频繁使用(5)
4.您是否了解AI算法可能存在偏见(如对特定性别、年龄、职业群体的不公平对待)? (以下为1-5分制,数字越大表示了解程度越高)
不了解(1)
非常了解(5)
5. 若发现某AI应用存在算法偏见,您的态度更倾向于?
6. 您认为AI训练数据中可能包含哪些类型的偏见?(可多选)
7.您是否同意“数据偏见会直接导致AI决策的不公平性”这一观点?(以下为1-5分制,数字越大表示认同程度越高)
不认同(1)
非常认同(5)
8. 您认为确保AI公平性,最应优先解决的问题是?
9. 当AI系统要求您提供更多个人数据(如健康史、职业信息)以“提升决策公平性”时,您会?
10.您是否担心“为减少数据偏见或提升决策公平性而扩大数据收集范围”会加剧隐私泄露风险?(以下为1-5分制,数字越大表示担心程度越高)
不担心(1)
非常担心(5)
11. 您认为“严格的隐私保护措施”是否会影响AI系统通过数据优化实现公平性?
12. 您在使用AI相关应用(如人脸识别、智能助手、个性化推荐等)时,最担心哪些隐私风险?(可多选)
13. 您是否会主动查看AI应用的隐私政策,了解其数据收集和使用范围?
14. 当某AI应用要求获取您的敏感信息(如身份证号、人脸数据)时,您通常会?
15. 您认为减少AI算法偏见和隐私风险,最需要哪些主体的努力?(可多选)
16.您是否支持"针对高风险AI应用(如司法、医疗),强制要求公开其数据来源的公平性与隐私保护措施"?(以下为1-5分制,数字越大表示了解程度越高)
不支持(1)
非常支持(5)
更多问卷 复制此问卷