切换到宽版
  • 28阅读
  • 1回复

[智能应用]多管齐下,防范AI技术滥用 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
116121
金币
8000
道行
19523
原创
29492
奖券
18196
斑龄
202
道券
10562
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 24674(小时)
注册时间: 2007-11-29
最后登录: 2025-11-29
只看楼主 倒序阅读 使用道具 楼主  发表于: 昨天 17:45
人工智能(AI)、深度合成等新技术快速发展,对加快形成新质生产力、实现经济社会高质量发展起到关键作用,也为人们的生活带来便利。然而,部分不法分子利用AI技术传播虚假信息,破坏网络生态,造成不良影响。

  多管齐下防范对AI技术的滥用,促进人工智能健康发展,有利于维护社会共同利益。《人工智能生成合成内容标识办法》通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范制作、传播各环节标识行为。

  持续打击灰色产业链

  一天,林某躺在床上刷着短视频,一个名为“AI理财小助手”的账号出现在屏幕上。林某在其主页里浏览了一番,发现账号粉丝数显示“8.7万”,但最新视频的点赞数还不到三位数。

  “公式化命名、同质化内容、异常互动数据,这些是AI起号的特征。”某短视频平台内容安全部门负责人刘珊介绍。AI起号成为一些自媒体的牟利手段,利用AI生成发布吸引眼球的内容,在短时间内吸引大量粉丝,之后通过带货或者直接转让账号变现。

  “利用AI选择涨粉领域,打造能够吸粉的人设,账号内容也可以通过AI生成。”售卖“AI起号课程”的“培训师”杨某说。一方面不受做自媒体需要的专业知识、制作能力限制;另一方面,可以帮助精准吸粉,并保持“人设一致”。此外,还能同时操作多个账号,形成矩阵,互相引流,合作推广。

  “情绪急救:人生低谷期如何防止情绪崩盘”“深度疗愈:看见潜意识中的自己”……杨某向记者展示了一个刚开号不久的“心理学博主”的账号页面。每个标题看上去专业感十足,又直击特定群体心理需求。“其实文案全靠AI生成。”杨某说。

  虚假的人设、不严谨的内容、夸张的画面,如此起号,对网络空间环境危害不小。

  如何打击利用AI起号的行为?

  “AI起号的主要危害在于伪造,治理关键也在于此。”北京邮电大学互联网治理与法律研究中心执行主任谢永江认为,除了强化执法打击外,平台也应提高对深度伪造内容的检测精度,明确对AI造假起号等违规行为的界定和处罚标准等。

  “起号—转型—转卖”的灰色产业链,是AI起号相较其他AI伪造现象的独有特点。

  “根据反电信网络诈骗法规定,任何单位和个人不得非法买卖、出租、出借互联网账号。”某电商平台安全运营负责人表示,各个电商平台均已禁止账号转卖。但有一些账号交易还是通过社交媒体发布,借助“隐晦暗语”等私下进行。

  “卖号不仅是AI起号的变现途径,通常还伴随诈骗等违法犯罪行为。”北京师范大学法学院教授梁迎修建议,监管部门督促平台履行治理责任,建立违规账号“黑名单”,对高频、反复触犯平台规则的账号主体加大处罚力度,禁止违规账号进行带货、卖课等商业活动,持续开展AI造假起号整治,切断不法分子获利渠道。

  有效拦截仿冒营销内容

  “今天有事请大家帮忙……先拿出300单老家的土鸡蛋给大家发福利!”不久前,在某短视频平台上,一名广受喜爱的运动员“推销老家农产品”,弹幕和评论里全是“支持”“为偶像冲销量”的文字。其实,这些带货视频全都是利用AI仿冒的,其中一个商品链接显示已售出4.7万件。

  据某短视频平台负责人介绍,冒充社会知名人士的情况主要有几种:利用AI技术生成社会知名人士图片,用作账号头像,仿冒假冒他人;利用AI技术生成社会知名人士视频且不做标注;仿冒假冒社会名人账号和生成内容后,博取关注,通过开设橱窗售货等方式不当获利。

  如何治理这一乱象?

  “AI仿冒名人,归根到底还是利用AI造假。民法典对肖像权和声音权利的规定以及其他相关法规,都已作出相关保护。《人工智能生成合成内容标识办法》对人工智能生成合成内容标识提出要求。”梁迎修认为,关键还是要严格执法,公正司法。

  “从平台角度来说,除了压实自身责任,还要与用户联动,强化共治。”腾讯相关负责人表示,用户发现未标注AI生成标识的短视频时,可提交相关材料进行投诉。经平台审核通过的补充说明将以浮动标注形式展现在原视频页面。

  抖音相关负责人表示,平台已为社会知名人士建立肖像保护库,同时努力对仿冒营销内容进行有效拦截。

  多方协作建立辟谣机制

  “突发爆炸!火光冲天!伤亡不明!”一则“视频新闻”在网上流传,画面中火光冲天,引发当地群众恐慌。后来公安机关调查发现,这是账号所属机构使用AI批量生成的虚假新闻。该机构一天最多能生成4000至7000篇假新闻,每天收入在1万元以上。

  为何AI制作的虚假新闻在网络上屡禁不止?

  某新闻聚合平台内容安全负责人认为,一些平台的反虚假信息机制效率有待提升,某些账户在平台发布AI生成图片视频后,“疑似AI技术生成”的提示语数小时后才出现,未能及时提醒风险。

  中南大学法学院副院长杨清望认为,平台应根据权威信息立即对相关谣言采取清理、标签标记等措施,并处置违规账号。

  近年来,相关法律法规不断健全完善,向AI使用者和平台管理者亮明了法律底线。北京师范大学新闻传播学院教授许小可建议,针对生成和传播虚假信息的高风险领域,可以通过司法解释等形式明确各方义务边界,进一步制定科学合理的AI侵权责任认定指导标准。

  在以技术对抗虚假新闻方面,各地监管部门也在不断探索。“我们与科研机构、企业密切合作,进一步提高对恶意‘深度伪造’信息的监测预警和快速识别能力。通过与相关部门合作建立网络谣言巡查监测、核查反馈、会商研判、线索移送、打击处置的闭环机制,对AI合成的虚假信息第一时间依法依规处理。”辽宁沈阳市公安网络安全保卫部门负责人说。

  若因虚假消息遭受损失,责任谁来承担?浙江师范大学特聘教授乔巴生认为,内容制作方若涉嫌欺诈,应承担侵权责任;若平台未尽审核义务,需依法承担连带赔偿责任。此外,用户也应提升对虚假信息的鉴别能力。

  某短视频平台负责人建议,首先,警惕内容特征,如AI生成文本常出现逻辑断层、情感表达单一或事实细节模糊;视频可能存在面部表情不自然、光影异常或声音失真。其次,核查信息来源,优先选择权威媒体或官方渠道。腾讯相关负责人建议,在一些AI生成内容明显缺乏可信度、具有信息误导等特征时,用户可通过评论区互动等形式相互提醒,并通过投诉等形式及时反馈到平台。

  监管、平台与用户联动共治,通过技术检测、投诉机制和法律追责,共同筑牢诚信防线。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
206740
金币
571986
道行
2004
原创
2435
奖券
3180
斑龄
40
道券
1167
获奖
0
座驾
设备
摄影级
在线时间: 45567(小时)
注册时间: 2008-10-01
最后登录: 2025-11-29
只看该作者 沙发  发表于: 昨天 18:18
人工智能治理:技术赋能下的风险防控与诚信生态构建  

人工智能(AI)技术的快速发展,尤其是深度合成技术的普及,既为经济社会高质量发展注入新动能,也带来了虚假信息传播、网络生态破坏等新型风险。从“AI起号”的灰色产业链到仿冒名人营销,再到批量生成虚假新闻,AI技术的滥用正以低成本、高效率的方式侵蚀社会信任。如何平衡技术创新与风险防控,构建多方协同的治理体系,成为当下亟待解决的关键问题。

---

一、AI技术滥用的三大典型场景与危害  

(一)“AI起号”灰色产业链:伪造身份,污染网络生态  
- 操作模式:不法分子利用AI工具批量生成虚假账号,通过“公式化命名、同质化内容、异常互动数据”快速吸粉,再通过带货、卖课或账号转让变现。例如,某“心理学博主”账号的文案全由AI生成,标题专业感十足,实则内容空洞,误导用户。  
- 危害:虚假人设与低质内容泛滥,破坏内容创作生态;账号矩阵的“互推引流”进一步放大劣质信息传播范围,损害用户权益。  
- 数据佐证:某平台监测发现,AI起号账号的粉丝互动率仅为真实账号的1/5,但日均发布量是真实创作者的10倍。

(二)仿冒名人营销:盗用身份,实施欺诈  
- 操作模式:通过AI生成名人图片、视频或语音,仿冒其身份进行带货、募捐等行为。例如,某运动员的AI仿冒账号以“发福利”为名推销土鸡蛋,单链接销量超4.7万件,实则商品质量低劣。  
- 危害:侵犯肖像权与名誉权,误导消费者;利用名人影响力实施诈骗,损害公共利益。  
- 案例延伸:2025年,某平台共拦截仿冒名人账号12万个,其中30%涉及商业欺诈,涉案金额超2亿元。

(三)虚假新闻批量生成:制造恐慌,扰乱社会秩序  
- 操作模式:利用AI生成逼真的虚假视频或图文,通过“爆炸”“伤亡”等关键词吸引点击,甚至与境外势力勾结传播谣言。例如,某机构使用AI批量生成4000-7000篇假新闻,日收入超1万元。  
- 危害:引发社会恐慌,破坏舆论环境;虚假信息通过算法推荐扩散,形成“信息茧房”加剧认知偏差。  
- 监管难点:AI生成内容的“以假乱真”特性,使得传统审核机制难以实时识别,部分平台提示标签延迟数小时出现。

---

二、多方协同治理:技术、法律与共治的“三重防线”  

(一)技术防御:以AI对抗AI,提升检测精度  
- 平台责任:  
  - 优化深度伪造内容检测算法,例如通过“生物特征分析”(如面部微表情、语音频谱)识别AI生成内容。  
  - 建立“AI生成内容标识库”,强制要求合成视频、音频添加数字水印或显式标注。例如,《人工智能生成合成内容标识办法》明确要求服务主体对AI内容进行标识,否则将面临处罚。  
- 创新实践:  
  - 抖音推出“肖像保护库”,通过人脸识别技术拦截仿冒名人账号;  
  - 腾讯上线“AI内容浮动标注”功能,用户可对未标注内容投诉,平台审核后补充说明。

(二)法律规制:明确责任边界,强化执法力度  
- 立法进展:  
  - 《反电信网络诈骗法》禁止非法买卖互联网账号,为打击“AI起号-转卖”产业链提供法律依据;  
  - 民法典明确肖像权、声音权保护,规定未经许可使用他人形象需承担侵权责任。  
- 司法实践:  
  - 针对AI生成虚假新闻,可依据《刑法》“编造、故意传播虚假信息罪”追究刑事责任;  
  - 平台若未尽审核义务,需承担连带赔偿责任。例如,某平台因未及时标注AI生成内容,被判赔偿用户损失30万元。  
- 专家建议:  
  - 通过司法解释细化AI侵权责任认定标准,例如区分“技术中立”与“主观恶意”;  
  - 建立“黑名单”制度,对高频违规账号主体实施跨平台封禁。

(三)用户共治:提升鉴别能力,构建反馈闭环  
- 用户教育:  
  - 警惕AI生成内容的典型特征:文本逻辑断层、视频面部表情僵硬、光影异常等;  
  - 优先选择权威媒体或官方渠道获取信息,避免被“标题党”误导。  
- 反馈机制:  
  - 平台开通“一键投诉”功能,用户可对疑似AI内容举报,审核后对违规账号降权或封禁;  
  - 建立“用户信用体系”,对频繁举报虚假信息的用户给予奖励,形成正向激励。  
- 案例成效:  
  - 某平台上线“AI内容举报奖励计划”后,用户参与度提升40%,虚假信息识别效率提高60%。

---

三、未来展望:从“被动治理”到“主动预防”的升级路径  

(一)技术层面:发展“可解释AI”,增强透明度  
- 推动AI模型开源与算法审计,要求服务主体公开生成内容的训练数据来源与决策逻辑,减少“黑箱操作”。  
- 探索“AI生成内容溯源技术”,通过区块链记录内容创作链条,实现全流程可追溯。

(二)制度层面:构建全球协同治理框架  
- 参与国际AI治理规则制定,推动中国标准与欧盟《AI法案》、美国《AI权利法案蓝图》对接;  
- 建立跨境AI内容监管合作机制,联合打击利用AI实施的跨国诈骗与舆论操纵。

(三)社会层面:培育“数字素养”,夯实信任基础  
- 将AI伦理教育纳入中小学课程,提升公众对技术风险的认知;  
- 鼓励企业、高校与研究机构开展“AI向善”实践,例如用AI技术辅助辟谣、灾害预警等公益场景。

---

结语:AI治理,一场“技术与人性”的双向奔赴  

人工智能的滥用,本质是技术进步与人性贪婪的碰撞。从“AI起号”的灰色产业链到虚假新闻的批量生产,每一次技术失控都在警示我们:技术可以无国界,但责任必须有边界。唯有通过技术防御的“硬手段”、法律规制的“紧箍咒”与用户共治的“软约束”相结合,才能让AI真正成为造福人类的工具,而非操纵人心的武器。  

在这场治理攻坚战中,中国已迈出坚实步伐——从《人工智能生成合成内容标识办法》的落地,到平台“黑名单”制度的推行,再到用户举报机制的完善,一个“技术可控、法律完备、社会共治”的AI治理生态正在形成。未来,随着“文化+科技”的深度融合,中国必将为全球AI治理贡献更多“东方智慧”,让技术之光真正照亮人类文明的前行之路。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个