媒介技术伦理的公众认知
您好!
为了解公众对人工智能、算法推荐、大数据等媒介技术背后伦理问题的看法,特开展此次调查。您的回答无对错之分,仅用于学术研究,我们将严格保密您的信息。感谢您的参与!
填答说明: 请在选择项前打“√”或填写相应内容。
1. 您的性别
男
女
2. 您的年龄
18岁以下
18--30岁
31--45岁
45--60岁
60岁以上
3. 您受教育程度
初中及以下
高中/中专
大专/本科
硕士及以上
4. 您每天使用互联网时长约为:
少于1小时
1~3小时
3~6小时
6小时及以上
技术认知与体验
5. 您是否注意到,手机APP(如短视频、购物、新闻类)似乎能“猜中”您的喜好,推荐您感兴趣的内容?
经常注意到,且觉得很准
偶尔注意到
很少注意
完全没注意过
6. 当您收到此类精准推荐时,您首先产生的感受是?
方便,节省了搜索时间
无所谓,不影响我使用
有些不安,感觉被监视
反感,试图关闭个性化推荐
7.
您是否遇到过以下因技术使用而带来的困扰?
刚和朋友线下聊过某物,APP就推送了相关广告
发现不同手机型号或用户群体在同一平台看到的价格不同(大数据杀熟)
看到过由AI生成的虚假新闻、图片或视频,且难以分辨真伪
因沉迷算法推荐的短视频或游戏,影响了工作学习或睡眠
从未遇到过上述困扰
伦理判断与态度
8. 对于“算法根据您的行为数据为您定制内容”,您认为这种做法是否侵犯了个人隐私?
严重侵犯,未经我明确同意就收集使用了数据
轻微侵犯,虽然方便但边界模糊
不构成侵犯,这是我使用服务默认付出的代价
说不清
9. 您如何看待AI生成的虚假新闻(如伪造的名人讲话、虚构的灾难现场)在网络传播?
非常危险,会严重扰乱社会秩序和公众信任
有些担忧,但相信平台能管控
无所谓,只要不涉及我关心的事
是技术进步的表现,可以接受
10. 如果一款技术产品(如AI面试官、健康管理APP)非常高效便捷,但存在潜在的隐私泄露风险,您会如何选择?
坚持使用,便捷优先
谨慎使用,仅提供必要信息
拒绝使用,除非有明确的安全保障
视情况而定
责任归属与行为倾向
11. 当算法推荐导致不良后果时(如误导未成年人、传播极端观点),您认为谁应承担主要责任?
技术开发者(企业)
平台运营方
发布内容的用户本人
监管机构
用户自己(缺乏辨别力)
12. 您是否愿意为了获得更优质的服务,主动授权企业使用您的个人数据?
A. 愿意,只要服务足够好
B. 勉强愿意,但希望有明确的补偿机制
C. 不愿意,隐私比便利更重要
D. 取决于企业的信誉和透明度
13. 您认为目前对于媒介技术的监管(如算法治理、数据安全)力度如何?
A. 力度足够,能有效保护公众权益
B. 力度一般,存在滞后性
C. 力度不足,技术跑得太快
D. 不了解
14. 如果未来有一项新技术(如脑机接口、元宇宙)能极大提升信息获取效率,但可能加深数字鸿沟或伦理争议,您的态度是?
A. 积极拥抱,技术发展不可避免
B. 审慎乐观,需要在发展中规范
C. 比较悲观,伦理风险大于技术红利
D. 无所谓
15. 您对“与已故亲人通过AI技术进行对话”这类数字永生服务,持什么态度?
积极支持,是情感慰藉的进步
谨慎看待,可能阻碍生者走出悲伤,伦理风险大
完全反对,这是对逝者的不尊重
说不清
再次感谢您的参与!
关闭
更多问卷
复制此问卷