@HASHKFK
网站公告:NOTICE
欢迎访问KAIYUN开云体育美发美妆美甲美容医疗科技公司

开云体育新闻

当前位置: 首页 > 开云体育新闻

开云体育新闻

发布时间:2026-03-05 08:00:18点击量:
  开云体育官方,开云体育app,开云app下载,开云棋牌,开云直播,开云体育靠谱吗,开云体育和亚博,开云体育老板是谁,开云官网,开云体育,开云直播英超,开云电竞,开云游戏,开云,开云体育官网,开云体育官方网站, 开云app, kaiyun sports, 开云体育简介, 开云体育官方平台, 世界杯开云, 开云体育app下载, 开云体育网址, 开云体育2025

担心隐私安开云体育- 开云体育官方网站- 开云体育APP 最新2025全、广告轰炸、信息误导等问题——AI工具虽好用受访青年更盼“放心用”

  近日,影视飓风工作室创始人潘天鸿(Tim)发布了一条视频,展示字节跳动发布的AI视频生成模型“Seedance 2.0”的效果,在感慨该模型的强大功能后,他又特别提到一个“比较恐怖”的意外发现——当他把自己的照片传到“Seedance 2.0”上,模型生成的视频中,不仅有他活灵活现的面孔,这张面孔发出的声音,也和他本人的一模一样。这意味着“Seedance 2.0”大量使用账号“影视飓风”发布的视频进行训练。潘天鸿是否曾授权相关企业使用这些视频?“平台的用户协议里可能隐藏了类似的授权条款,但我个人没有收过钱,也没有被联系过授权。也许他们在法理上是合规的,但是,这有点恐怖,对吧?”潘天鸿在视频中说。

  随着“ChatGPT”“DeepSeek”“Sora”“Seedance”等模型一次又一次刷新人们对AI的认识,这些工具也正在愈发深入地涌入普通人的日常生活。近日,中国青年报·中青校媒面向以大学生为主的青年发起AI工具使用相关问卷调查,共回收有效问卷1390份。调查结果显示,受访者最常用的AI工具是语言生成类(77.12%),此外还有图像生成类(65.32%)、音视频处理类(30.86%)、办公学习类(27.84%)等。受访者担心目前AI可能引起的风险,有产生“AI幻觉”或虚假信息,误导用户(58.13%);可能侵犯肖像权、著作权等个人权益(52.52%);AI生成内容可能被用于诈骗,威胁财产安全(44.39%);AI生成内容可能受商业利益影响,缺乏客观性(27.12%),等等。

  张宇菁提到的平台用户信息收集,也让毕业于武汉工程大学的张鸿博感到无奈。“如今各类平台动辄要求用户同意全部条款才能使用,不同意则无法注册,这种‘霸王条款’让用户对隐私保护毫无选择权。”张鸿博的母亲喜欢使用短视频平台的一键生成视频功能,把家人的照片拼接起来,配上动画、文字和音乐,分享生活点滴。但每次上传照片,母亲都会格外担心:“这些面部信息传上去,万一被泄露了怎么办?”张鸿博也担心,如今AI声音合成、真人图像生成的技术日趋成熟,一旦个人信息泄露,被不法分子利用,进行诈骗,后果不堪设想。张鸿博还发现,如今抖音、视频号上充斥着大量AI生成的内容,有些内容看似专业,实则是虚假信息,一些年轻人都难以辨别,家中长辈更是频频中招,常常将AI生成的虚假科普视频转发到家庭群。

  北京一所高校的学生李奥(化名)则遇到了个人地址被AI获取的情况。当他在与AI的对话框里输入“某补贴怎么领取”,几秒后,AI回答:“结合您当前的位置湖北省荆门市……”李奥盯着那行字,心里觉得不太对劲。“那天我用的是网页版。手机App要获取地址权限前,会提前弹窗询问,但在网页端使用,好像没有很明显的提示。”后来他就此追问AI,AI解释说地址是系统信息授权得来的,并且保证不会泄露用户个人隐私。“但那种被读取信息的感觉,还是不太舒服。”李奥说。

  中青校媒调查显示,84.18%受访者曾遇到过AI向自己推荐商品或服务,其中14.03%受访者经常遇到,36.19%受访者有时遇到,33.96%受访者较少遇到。对于AI推荐商品或品牌的情况,12.52%受访者表示排斥,认为这损害了AI回答的客观性;54.75%受访者表示要谨慎看待,怀疑其是否受商业利益影响;25.03%受访者表示只要推荐合理且有用,就可以接受;5.90%受访者表示欢迎,认为这是一种高效获取购物建议的方式;还有1.80%受访者认为无所谓。

  张鸿博也隐约感到AI有意无意地向他输出广告。因为手腕做过手术,他在健身前咨询了豆包,如何健身才能保护手腕,豆包告诉他的方法中,有一条是使用护腕,并在回答问题后,又展示了几个可以继续点击的选项,其中有一条是“是否需要我给你推荐一些护腕”。张鸿博顺势点下去,豆包就推荐了Keep、劳拉之星等品牌的护腕。张鸿博不知道这些并未标注广告字样的推荐背后是否确实有商业合作,但他对AI推荐的这些产品是否好用持怀疑态度。

  在使用AI的过程中,张鸿博尝试过各种方式,规避虚假信息和各类风险。但在他看来,这些方法治标不治本,AI行业的健康发展,更需要从源头进行治理。“首先要让用户条款更透明,把选择权交还给用户,比如可以勾选是否授予平台某些重要权限,而不是一刀切。”张鸿博建议,应该给AI生成的内容添加数字水印,让用户能清晰识别,同时建立完善的举报渠道,对虚假信息、违规推荐进行监管,更重要的是开展AI素养教育,提升全民的辨别能力,让大家能理性看待和使用AI。

  张宇菁虽然觉得AI仍存在各种各样的问题,但他并不否定AI的价值,只是希望行业能朝着更规范的方向发展。“我希望AI能少一点迎合,多一点客观,给出问题答案时,能提供多方面的观点和解决方案。更重要的是,AI的信息来源要更严谨,引用权威机构的内容并标注来源,让用户能清晰辨别真伪。”同时,他也呼吁平台加强自我监管,尤其是在生物数据使用、AI生成内容审核方面,建立完善的反馈和修正机制,“只有把AI的信息‘黑箱’打开,把数据安全的防线筑牢,才能让用户真正放心地使用AI,让技术真正服务于人”。