文化遺產如何在數字時代煥發新生?「永不消失的遺產2025」全球創客大賽日前在大報恩寺遺址博物館正式開營,通過跨文化合作與數字創意,邀請青年創客共同探索文化遺產保護的創新路徑。本屆大賽收到了來自19個國家的近700份申請,覆蓋國家和報名人數均超去年首屆。經過線上角逐,最終8支隊伍、31名選手入圍南京決賽,開啟為期半個月的駐地創作。參賽者將圍繞主題「一城·一塔·一河」:明城牆、大報恩寺琉璃塔、秦淮河,設計一件可互動、可參與、可感知的戶外數字藝術裝置。來自倫敦大學學院、北京郵電大學、南京藝術學院、布裡斯託大學、倫敦大學金史密斯學院等高校的導師們,決賽期間將全程參與指導、評審與互動,助力選手優化創意與技術實現。 入圍決賽的31名選手來自建築、藝術、科技等領域,有些是英國、德國、希臘、印度、亞塞拜然等外籍青年,他們組成八支隊伍亮相。來自InterAct團隊的選手Lampiri表示:「我是在Instagram上看到這個賽事的。作為一名XR藝術家,能有機會用數字藝術詮釋中國的文化遺產,這太令人興奮了。」 城南長幹裡片區是市民和遊客進入南京的首站,承載著許多人的集體記憶。今年大賽將明城牆、大報恩塔、秦淮河作為整體創作對象,要求選手的裝置作品將三大文化地標相互聯結。大賽期望通過「一城一塔一河」的聯動,讓這些地標變為有機的文化整體,從而賦能城市文旅融合發展。實地探訪激發了選手對「文化共生」的思考。8月2日至3日,參賽團隊們深入大報恩寺遺址、明城牆與秦淮河沿線,以創作者的眼光不斷尋找數位技術與文化遺產的結合點。「站在大報恩塔遺址上,看著秦淮河與明城牆交相輝映,這種呼應的空間關係將成為我們作品重要的視覺語言。」來自「絲路餘聲」團隊的尹韶陽說。 與去年純數位化呈現不同,2025年大賽強調實體裝置的「可互動、可參與、可感知」。這種轉變推動選手突破虛擬邊界——更多參賽團隊們側重將AR技術與實體裝置結合,打造多感官交互的體驗。「我們考慮到了周圍環境的影響,設計了聽覺、視覺、觸覺等交互感,將給觀眾帶來瞬間爆發的美好體驗。」來自「網格工作室」團隊的張雨瑤透露。「文化遺產保護不應局限於靜態展示,而是要紮根於城市獨特的文化土壤,讓歷史真正融入城市血脈。」南京師範大學歷史文博學院教授祁海寧說。 本屆賽事特別設置了公眾參與環節,後續創作中,選手將與本地居民、文化工作者開展互動工作坊。倫敦大學學院沉浸式非虛構敘事講師Niall Hill表示,「當地人的參與對於地方遺產的保護尤為重要,創作者和真實在場的人互動,作品才會激發更多共鳴。」在接下來的創作階段,參賽團隊將在導師指導下進一步完善設計方案、製作實物模型。最終路演評審將於8月14日舉行,由來自國際的專家評審團評選出一項優勝作品。
最近,新華網發布的一則反詐短視頻在社交平臺引發關注。這條旨在揭露AI換臉、變聲騙局的宣傳片發布後,有網友說「被嚇到了」,還有評價說「像恐怖片」。這是為什麼呢?原來,很多網友沒有想到,AI換臉、換聲能那麼「真」:短視頻以溫馨的母女視頻通話情節開始。母親正在家裡煲湯等女兒回家,女兒撒嬌說航班延誤又掉了一部手機,央求母親轉帳應急。就在母親用網銀轉帳時,門鈴響起,母親以為沒帶鑰匙的父親回家,暫停轉帳去開門。誰知,門外站著女兒。此時,視頻電話裡的「女兒」還在一口一個「媽,你是世界上最好的媽」。 反詐視頻中,真人與AI變臉「面對面」(圖源:新華網視頻截屏)。所以,宣傳片的主題是告訴網友,AI可以模擬人臉和人聲,視頻裡看到和聽到的都不一定是真實的,要警惕新型詐騙電話。不少網友一邊評價「太嚇人」,一邊詢問:AI技術真的進化到可以如此逼真的「換臉換聲」了嗎?答案是肯定的。只要3步,「換臉」成功「AI換臉、換聲並且用視頻的形式誤導公眾,已經不算技術難題。」人工智慧企業合合信息的技術人員展示了3步換臉:第一步,對著演示屏幕的攝像頭,根據提示上下左右轉頭,錄入真人信息;第二步,選擇兩張想要的新臉照片;第三步,演示屏幕顯示,這名技術人員已經擁有了兩張全新的「臉」,新臉還能跟隨身體的主人做出各種頭部動作與面部表情。對普通人而言,壓根看不出顯示屏幕上的「人」是AI生成的。 左:真人信息錄入;中:選擇要變的「臉」;右:變臉完成(作者攝)。技術人員表示,AI換聲也很方便,很多消費級的軟體已經提供這些服務。只要向相關軟體提供一定的聲紋資源,軟體很快就能模擬目標聲音,實現以假亂真的效果。所以,千萬不要以為反詐短視頻中的「換臉變聲詐騙」是演繹。隨著AI技術的發展,換臉、變聲已經不再困難。而且,有不法分子已經用換臉、換聲等騙取錢財。前不久,湖北警方就披露了一起「變聲」詐騙案件:被害人劉女士接到「孫子」電話說,不當心傷害到別的孩子,「私了」要2萬元錢,怕被母親責罵,「請奶奶救救我,不要告訴媽媽」。劉女士覺得電話那頭就是「孫子」的聲音,決定湊錢幫孫子。接著,孫子說有人來找劉女士拿錢,在交接錢款時,劉女士又聽到了電話裡「孫子」的聲音,確認無誤後,把錢款給了對方。過了幾天,劉女士遇到孫子問起這件事,才發現上當受騙,然後報警。警方經過調查,抓獲了犯罪嫌疑人,並根據被害人提供的線索分析認為,犯罪嫌疑人可能是通過多次撥打座機電話,逐步收集了她孫子的聲紋信息,基於它們用AI技術造假,實施詐騙。識破AI換臉和變聲,這些訣竅有用那麼,如何預防AI換臉、變聲詐騙呢?最簡單的是使用只有當事人才知道的「暗語」或者方言。當視頻通話等涉及轉帳等話題,當事人要先想辦法求證對方是本人還是AI造假。比如,可以詢問對當事雙方都有特別意義的紀念日、改用方言交流等。此時,AI造假極可能露餡。同時,個人應注意保護隱私信息。高清的面部信息、聲紋信息等,都屬於隱私信息,它們都是被模仿的基礎。所以,在社交平臺上曬視頻、曬照片、曬聲音等行為,其實存在一定的被模仿風險。此外,通訊硬體、軟體等服務供應方,則要有「用魔法打敗魔法」的防範思路。技術人員表示,在生活中,不法分子不僅用AI換臉、變聲詐騙,還會用換臉、變聲「撞庫」,盜取他人錢財。比如,不法分子獲得目標對象的臉部圖像後,試圖通過「人臉識別」的方式,登錄目標對象的各種帳戶,盜取數據、轉移財產等。AI造假後「撞庫」的後果往往比AI造假後詐騙更大,所以需要從源頭加以識別、攔截。此時,AI也可以成為幫手:AI通過對光影、臉部紋理、動態五官是否合理等細節的監控和計算,得出鑑定結果。 用AI識別AI造假(作者攝)。「因為AI捕捉和比對的精細度遠遠超過人眼,所以能識別人眼發現不了的造假視頻。」技術人員表示,如果在涉及人臉識別、聲紋識別的服務中嵌入以上技術,那麼能極大限度地防範AI造假。
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。
月夜直播在线观看 | 雪梨直播 |
花蝴蝶app直播 |
快猫 | 桃花app |
橘子直播 |
橘子直播 | 优直播 |
520直播 |
心跳直播 | 迷笛直播 |
青柠直播 |
名模直播 | 9i安装下载 |
曼城直播 |
黑白直播体育 | 曼城直播 |
蝶恋直播 |
春雨直播 | 免费直播 |
月夜直播app夜月 |
趣爱直播 | 少女6夜半直播nba |
橘子直播 |
小猫咪视频 | 妲己直播 |
97播播 |
雨燕直播 | 小白兔直播 |
青柠直播 |