T5 第四周后测(2,B)
1. 你的姓名或者昵称是什么?
2. 你是否完整观看了本周的学习视频?
A.是,完整观看了
B.是,但只看了一部分
C.否,没有观看
3. 下面哪项属于视频中AI伦理辩论的核心矛盾点?
AI硬件的成本问题
AI决策的责任归属问题
AI技术的更新速度
AI的编辑语言选择
4. 视频中,AI伦理大辩论的探讨重点在于?
AI研发的技术难点
AI技术发展与人类伦理规则的平衡
AI在各行业的应用场景
全球AI技术的发展差距
5. 你对于AI伦理问题有什么理解和想法?
6. 你觉得你向AI输入指令并提出需求的能力变化如何?
越来越不知道该如何清晰的向AI提出需求
越来越能精准合理地向AI表达自身需求
前后基本没有变化,始终能清晰表达需求
前后基本没有变化,始终无法清晰表达需求
7. 你对AI界面中有关信息授权、隐私风险提醒、权限设置框等提示框的感受,与之前相比,对其风险、收益、控制的感知程度变化是?
对隐私提示框的相关感知更加模糊
对隐私提示框的相关感知更加清晰
始终没有任何感知,不会关注隐私提示框
刚开始感知清晰,现在反而不在意
8. 对比实验开始,再看到AI的隐私提示框时,你觉得是否可以控制自身的隐私信息披露?
越来越觉得自身信息无法掌控
越来越觉得自身信息可以掌控
始终觉得无法掌控
始终觉得可以掌控
9. 当你觉得生成式AI的隐私提示框设计清晰、能自主选择是否授权、能明确知晓使用风险时,你向AI披露个人信息的意愿会?
明显降低,不愿透露任何信息
明显提升,愿意适度透露相关信息
完全不受影响,不会改变披露行为
编造一部分信息,部透露真实信息
10. 对比实验开始,你是否会注意到避免在对话中透露个人隐私信息?
刚开始会避免,越久越不在意
刚开始不会避免,越来越注重保护隐私
始终愿意提供个人隐私信息
始终完全不提供任何个人隐私信息
11. 请你就AI伦理,AI使用技能,AI隐私信息等问题谈一谈你自己的看法,与刚开始实验时,有什么改变或有什么新的认识?
12. 当向AI提问时,你通常如何描述问题?
直接用关键词或一句话
简单描述背景,但不具体
明确说明任务目标,角色和输出格式
根据不同任务灵活调整提示结构
13. 当AI的回答不符合预期时,你通常会?
放弃使用或换工具
直接批评AI指出问题
换种说法重新提问
提供更具体的指令或示例引导
14. 你是否会为AI设定角色(如“你现在是一名律师”)来引导回答?
从不
偶尔
经常
几乎每次
15. 你是否会要求AI以特定格式(如表格、代码块)输出?
从不
偶尔
经常
几乎每次
16. 在使用AI时,你是否会可以避免输入真实姓名,电话等敏感信息?
从不直接输入真实信息
偶尔会注意,但不刻意
经常用模糊化或替代信息
总是严格规避
17. 你是否会质疑AI输出的内容是否准确?
基本全盘接受
偶尔怀疑,但很少验证
经常用常识或经验判断
每次都会交叉验证
18. 总体而言,你目前向AI提供个人信息的意愿程度如何?
非常不愿意
1
2
3
4
5
非常愿意
19. 你对使用生成式AI时的隐私泄露风险担忧程度如何?
完全不担忧
1
2
3
4
5
非常担忧
20. 你是否曾刻意模糊或修改个人信息后再提供给AI?(如用“某大学”代替真实校名)
从不
偶尔
经常
总是
21. 当你第一眼看到这个提示框时,从中感到以下哪一项更多?
风险
收益
控制权
22. 你在多大程度上会同意提供个人信息?
非常不同意
1
2
3
4
非常同意
23. 看完提示框后,你对这个AI应用的接受程度如何?
非常不接受
1
2
3
4
非常接受
24. 你对接下来使用这个AI时信息泄露的担忧程度如何?
非常担忧
1
2
3
4
安全不担忧
25. 你对本周的学习视频有什么看法?
26. 你对这个隐私提示框有什么看法?
关闭
更多问卷
复制此问卷