8月14日電 據「網信中國」微信公眾號消息,近期,一些自媒體帳號違反《網際網路軍事信息傳播管理辦法》,違規發布涉軍信息,誤導公眾認知,損害軍隊形象,社會影響惡劣。軍地職能部門依法依規處置了一批網上違法違規信息及自媒體帳號,現遴選通報有關典型案例。 一、冒充官方帳號。網絡帳號「南部衛士」、「聯參智庫服務」、「聯勤保障」等與軍隊單位開辦的網絡帳號雷同,以高仿帳號冒充官方帳號,發布內容多為涉軍信息,蹭炒軍事熱點吸粉牟利。 二、編撰軍事謠言。網絡帳號「乖乖兔軍情」利用AI編造「中國四大鎮魂武器」等謠言信息,誤導認知。網絡帳號「軍事課代表」發布所謂「解析裝備細節」、「分析戰術戰法」、「解讀軍事行動」等內容,部分文章需付費購買瀏覽,借軍事話題違規牟利。 三、歪曲解讀軍史。網絡帳號「紅小巖的自留地」、「紅小巖談古論今」、「紅小巖的後花園」等,稱抗美援朝志願軍飛行員、空軍一級戰鬥英雄張積慧「戰績有水分」,質疑污衊英烈功績,借黨史軍史嚴肅話題引流牟利。 四、抹黑軍隊形象。網絡帳號「軍創怡姐」、「蘇州怡姐」利用所謂「答疑視頻」,發布「在XX地服役有什麼危害」等誤導性內容,抹黑軍隊形象。 五、消費擁軍情懷。網絡帳號「秦淮河畔」自稱退役軍人,長期發布身穿各式軍服或軍服仿製品的短視頻,為個人帳號違規引流。 六、暴露部隊營區。網絡帳號「楊陽陽」自稱90後留守軍嫂,發布多篇「部隊家屬院」短視頻,內容含各類訓練設備,並標註定位,暴露軍隊敏感信息。 軍地相關部門負責人表示,將持續貫徹落實《網際網路軍事信息傳播管理辦法》,堅決依法依規打擊自媒體涉軍違法違規行為,從嚴查處發布和炒作不實信息帳號主體,曝光典型案例。同時歡迎有關部門和網民積極參與舉報,共同打造良好涉軍網絡環境。
最近,新華網發布的一則反詐短視頻在社交平臺引發關注。這條旨在揭露AI換臉、變聲騙局的宣傳片發布後,有網友說「被嚇到了」,還有評價說「像恐怖片」。這是為什麼呢?原來,很多網友沒有想到,AI換臉、換聲能那麼「真」:短視頻以溫馨的母女視頻通話情節開始。母親正在家裡煲湯等女兒回家,女兒撒嬌說航班延誤又掉了一部手機,央求母親轉帳應急。就在母親用網銀轉帳時,門鈴響起,母親以為沒帶鑰匙的父親回家,暫停轉帳去開門。誰知,門外站著女兒。此時,視頻電話裡的「女兒」還在一口一個「媽,你是世界上最好的媽」。 反詐視頻中,真人與AI變臉「面對面」(圖源:新華網視頻截屏)。所以,宣傳片的主題是告訴網友,AI可以模擬人臉和人聲,視頻裡看到和聽到的都不一定是真實的,要警惕新型詐騙電話。不少網友一邊評價「太嚇人」,一邊詢問:AI技術真的進化到可以如此逼真的「換臉換聲」了嗎?答案是肯定的。只要3步,「換臉」成功「AI換臉、換聲並且用視頻的形式誤導公眾,已經不算技術難題。」人工智慧企業合合信息的技術人員展示了3步換臉:第一步,對著演示屏幕的攝像頭,根據提示上下左右轉頭,錄入真人信息;第二步,選擇兩張想要的新臉照片;第三步,演示屏幕顯示,這名技術人員已經擁有了兩張全新的「臉」,新臉還能跟隨身體的主人做出各種頭部動作與面部表情。對普通人而言,壓根看不出顯示屏幕上的「人」是AI生成的。 左:真人信息錄入;中:選擇要變的「臉」;右:變臉完成(作者攝)。技術人員表示,AI換聲也很方便,很多消費級的軟體已經提供這些服務。只要向相關軟體提供一定的聲紋資源,軟體很快就能模擬目標聲音,實現以假亂真的效果。所以,千萬不要以為反詐短視頻中的「換臉變聲詐騙」是演繹。隨著AI技術的發展,換臉、變聲已經不再困難。而且,有不法分子已經用換臉、換聲等騙取錢財。前不久,湖北警方就披露了一起「變聲」詐騙案件:被害人劉女士接到「孫子」電話說,不當心傷害到別的孩子,「私了」要2萬元錢,怕被母親責罵,「請奶奶救救我,不要告訴媽媽」。劉女士覺得電話那頭就是「孫子」的聲音,決定湊錢幫孫子。接著,孫子說有人來找劉女士拿錢,在交接錢款時,劉女士又聽到了電話裡「孫子」的聲音,確認無誤後,把錢款給了對方。過了幾天,劉女士遇到孫子問起這件事,才發現上當受騙,然後報警。警方經過調查,抓獲了犯罪嫌疑人,並根據被害人提供的線索分析認為,犯罪嫌疑人可能是通過多次撥打座機電話,逐步收集了她孫子的聲紋信息,基於它們用AI技術造假,實施詐騙。識破AI換臉和變聲,這些訣竅有用那麼,如何預防AI換臉、變聲詐騙呢?最簡單的是使用只有當事人才知道的「暗語」或者方言。當視頻通話等涉及轉帳等話題,當事人要先想辦法求證對方是本人還是AI造假。比如,可以詢問對當事雙方都有特別意義的紀念日、改用方言交流等。此時,AI造假極可能露餡。同時,個人應注意保護隱私信息。高清的面部信息、聲紋信息等,都屬於隱私信息,它們都是被模仿的基礎。所以,在社交平臺上曬視頻、曬照片、曬聲音等行為,其實存在一定的被模仿風險。此外,通訊硬體、軟體等服務供應方,則要有「用魔法打敗魔法」的防範思路。技術人員表示,在生活中,不法分子不僅用AI換臉、變聲詐騙,還會用換臉、變聲「撞庫」,盜取他人錢財。比如,不法分子獲得目標對象的臉部圖像後,試圖通過「人臉識別」的方式,登錄目標對象的各種帳戶,盜取數據、轉移財產等。AI造假後「撞庫」的後果往往比AI造假後詐騙更大,所以需要從源頭加以識別、攔截。此時,AI也可以成為幫手:AI通過對光影、臉部紋理、動態五官是否合理等細節的監控和計算,得出鑑定結果。 用AI識別AI造假(作者攝)。「因為AI捕捉和比對的精細度遠遠超過人眼,所以能識別人眼發現不了的造假視頻。」技術人員表示,如果在涉及人臉識別、聲紋識別的服務中嵌入以上技術,那麼能極大限度地防範AI造假。
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。
82367
79
2025-10-26 13:44
23519
96
2025-10-26 13:44
98256
68
2025-10-26 13:44
79846
38
2025-10-26 13:44
61349
13
2025-10-26 13:44
89237
92
2025-10-26 13:44
17386
74
2025-10-26 13:44
23187
32
2025-10-26 13:44
79423
75
2025-10-26 13:44
97824
75
2025-10-26 13:44
61592
35
2025-10-26 13:44
38527
53
2025-10-26 13:44
32874
98
2025-10-26 13:44
95167
46
2025-10-26 13:44
85179
12
2025-10-26 13:44
28647
54
2025-10-26 13:44
86754
68
2025-10-26 13:44
29764
71
2025-10-26 13:44
68271
79
2025-10-26 13:44
79321
14
2025-10-26 13:44
37196
13
2025-10-26 13:44
18269
13
2025-10-26 13:44
53716
42
2025-10-26 13:44
95476
31
2025-10-26 13:44
58236
41
2025-10-26 13:44
93478
97
2025-10-26 13:44
21867
68
2025-10-26 13:44
65421
23
2025-10-26 13:44
12375
91
2025-10-26 13:44
71435
83
2025-10-26 13:44
57419
15
2025-10-26 13:44
35947
97
2025-10-26 13:44
85694
34
2025-10-26 13:44
87561
21
2025-10-26 13:44
85472
17
2025-10-26 13:44
46728
96
2025-10-26 13:44
91645
46
2025-10-26 13:44
72649
23
2025-10-26 13:44
25498
34
2025-10-26 13:44
39187
71
2025-10-26 13:44
64328
13
2025-10-26 13:44
94362
35
2025-10-26 13:44
18647
35
2025-10-26 13:44
87429
64
2025-10-26 13:44
76591
39
2025-10-26 13:44
18952
24
2025-10-26 13:44
16547
75
2025-10-26 13:44
29786
29
2025-10-26 13:44
95637
82
2025-10-26 13:44
61347
92
2025-10-26 13:44
45679
45
2025-10-26 13:44
12364
76
2025-10-26 13:44
63417
95
2025-10-26 13:44
| 奇秀直播 | 金莲直播 |
| 红楼直播 | |
| 飞速直播 | 花蝴蝶app直播 |
| 少女6夜半直播nba | |
| 妖精直播 | 花瓣直播 |
| 茄子直播 | |
| 小草莓直播 | 成人性做爰直播 |
| 快猫 | |
| 青稞直播 | 绿茵直播 |
| 樱花直播nba | |
| 妖姬直播 | 糖果直播 |
| 雨燕直播 | |
| 零点直播 | 免费直播平台 |
| 妖姬直播 | |
| 就要直播 | 趣爱直播 |
| 咪咕直播 | |
| 橘子直播 | 免费真人视频网站直播下载 |
| 西瓜直播 | |
| 水仙直播 | 极速直播 |
| 桃鹿直播 | |