亚洲精品揄拍自拍首页,久久国产综合91,久久人人做人人妻人人玩精品vr,久久综合久久无码

  • <rp id="b40sa"><menu id="b40sa"></menu></rp>
  • <table id="b40sa"><p id="b40sa"></p></table>

    <table id="b40sa"></table>

  • <progress id="b40sa"></progress>
      <var id="b40sa"><track id="b40sa"><ins id="b40sa"></ins></track></var>
      中國(guó)西藏網(wǎng) > 即時(shí)新聞 > 時(shí)政

      “深度偽造”真假難辨 有效監(jiān)管成為關(guān)鍵

      發(fā)布時(shí)間:2024-02-19 10:16:00來源: 法治日?qǐng)?bào)

        法治日?qǐng)?bào)記者 王衛(wèi)

        近期,美國(guó)流行樂歌星泰勒·斯威夫特的“AI偽造照片”事件掀起軒然大波,甚至驚動(dòng)了美國(guó)白宮。雖然利用AI技術(shù)制作虛假信息早已有之,但隨著生成式AI在過去一年多時(shí)間內(nèi)的快速發(fā)展,對(duì)視頻、圖片、音頻進(jìn)行深度造假技術(shù)更加成熟且普遍,造假的成本也更加低廉。如何在發(fā)展、利用生成式AI的同時(shí),有效監(jiān)管和減少深度偽造產(chǎn)生的虛假信息,成為全球關(guān)注的一個(gè)重要議題。

        眼見不一定為實(shí)

        “深度偽造”技術(shù)利用機(jī)器的深度學(xué)習(xí),實(shí)現(xiàn)圖像、聲音、視頻的篡改、偽造和自動(dòng)生成,產(chǎn)生高度逼真且難以甄別的效果。

        近日,大量由AI生成的泰勒虛假色情、血腥照片在多個(gè)社交平臺(tái)瘋傳,瀏覽量已超過千萬,引發(fā)社交媒體震動(dòng),也引起了美國(guó)白宮的注意。實(shí)際上這不是泰勒第一次成為AI“深度偽造”的受害者。就在不久前,有人使用AI技術(shù)仿造了她的聲音和形象來為商品進(jìn)行推廣,讓消費(fèi)者誤以為這是泰勒代言的商品。

        白宮新聞秘書卡琳·讓-皮埃爾表示:“我們對(duì)媒體發(fā)布的關(guān)于泰勒照片(更確切地說是虛假圖像)流傳的報(bào)道感到震驚,這種情況令人擔(dān)憂。雖然社交媒體平臺(tái)在內(nèi)容管理方面作出了自己的獨(dú)立決定,但我們認(rèn)為他們?cè)趫?zhí)行自己規(guī)則方面可以發(fā)揮重要作用,以防止錯(cuò)誤信息和未經(jīng)同意的真實(shí)人物的私密圖像傳播。”她還補(bǔ)充稱,“執(zhí)法不到位對(duì)于女性影響更大,畢竟她們是網(wǎng)絡(luò)騷擾的主要目標(biāo)”。

        除了泰勒,同樣深受其害的還大有人在。

        印度當(dāng)?shù)孛襟w《經(jīng)濟(jì)時(shí)報(bào)》1月15日?qǐng)?bào)道,此前一段視頻顯示,印度的板球傳奇人物坦杜卡支持一款名為Skyward Aviator Quest的游戲應(yīng)用程序,并稱他的女兒通過使用該應(yīng)用程序預(yù)測(cè)游戲結(jié)果,每日收入高達(dá)18萬盧比。這名板球運(yùn)動(dòng)員回應(yīng)稱,“這些視頻是假的,技術(shù)濫用現(xiàn)象猖獗,令人不安。請(qǐng)大家積極舉報(bào)此類視頻、廣告和應(yīng)用程序。社交媒體平臺(tái)需要保持警惕并響應(yīng)投訴。他們的行動(dòng)對(duì)于阻止錯(cuò)誤信息和深度偽造的傳播至關(guān)重要?!?/p>

        去年11月,美國(guó)新澤西一所中學(xué)30多名女生的照片被篡改和傳播,她們呼吁學(xué)校和政府采取措施;西班牙某小鎮(zhèn)的女學(xué)生也發(fā)現(xiàn)自己的“裸照”在學(xué)校和社區(qū)里流傳,給她們的身心帶來不小沖擊,當(dāng)?shù)鼐桨l(fā)現(xiàn)這都是有人使用廉價(jià)應(yīng)用程序炮制而成。

        有報(bào)道指出,在全球化時(shí)代,社交媒體成了滋生虛假信息的溫床,憑借一段原始語音、一張?jiān)紙D片,犯罪分子就可以編造出一段真假難辨的謠言。每個(gè)人都有可能成為“AI惡意操作”的受害者。

        影響政治社會(huì)秩序

        “深度偽造”技術(shù)不斷被濫用,而“反深度偽造”技術(shù)仍未成熟,這一局面或?qū)?duì)個(gè)人隱私、行政執(zhí)法、司法取證等多方面帶來困擾和威脅,引發(fā)社會(huì)憂慮和信任危機(jī)。

        國(guó)際社會(huì)認(rèn)為,“深度偽造”技術(shù)首先給個(gè)人和企業(yè)帶來損害。制作虛假色情視頻是“深度偽造”技術(shù)最常見的運(yùn)用方式之一?!吧疃葌卧臁奔夹g(shù)可能侵害肖像權(quán)、隱私權(quán)和知識(shí)產(chǎn)權(quán)等權(quán)利,也可能被用來實(shí)施詐騙、敲詐勒索等違法犯罪活動(dòng)。2019年,全球首例AI詐騙案發(fā)生在英國(guó),一名詐騙者利用先進(jìn)的AI語音模仿軟件,假扮公司高層,成功騙取了一家英國(guó)能源公司總經(jīng)理的22萬歐元。

        其次是國(guó)家安全和公共安全受到威脅。美國(guó)專家西特倫舉例說,“深度偽造”可能會(huì)影響美國(guó)大選,制造出一些候選人沒做過的“錯(cuò)事”,這些影響是不可估量的。2018年4月,一段主角為美國(guó)前總統(tǒng)奧巴馬的視頻,在推特上獲得200多萬次的播放和5萬多個(gè)點(diǎn)贊。奧巴馬在視頻中抨擊時(shí)任總統(tǒng)特朗普。但實(shí)際上并非出自奧巴馬。2018年5月,特朗普宣布中止全球氣候變化協(xié)議,隨后被比利時(shí)某政黨利用“深度偽造”技術(shù)篡改,做出一個(gè)“特朗普宣告比利時(shí)政府也應(yīng)退出”的假視頻,引起比利時(shí)民眾的公憤。

        第三是引發(fā)社會(huì)憂慮和信任危機(jī)。專家認(rèn)為,“深度偽造”會(huì)加深公眾對(duì)政府的不信任感。隨著公眾意識(shí)到“深度偽造”的危害,他們會(huì)對(duì)一般的真實(shí)視頻產(chǎn)生懷疑,更容易把真實(shí)視頻當(dāng)作虛假視頻,迷失在真假信息之中,對(duì)官方澄清也會(huì)持懷疑態(tài)度?!疤├帐怯绊懥艽蟮拿餍牵俏覀兤胀ㄈ艘脖簧疃葌卧炝瞬谎耪湛稍趺崔k?”“AI發(fā)展得太快太恐怖了,我都不敢想如果是我那真的是跳進(jìn)黃河也洗不清了?!薄爸С諥I立法,濫用危害太大了?!薄斑@真的和我們的生活息息相關(guān),AI照片視頻的人類面部表情已經(jīng)很像真人了,聲音也能模仿得一樣,這樣的騙局讓普通人難以分辨?!边@些聲音傳達(dá)出了公眾對(duì)AI“深度偽造”技術(shù)發(fā)展的強(qiáng)烈不安。

        及時(shí)完善立法

        盡管AI技術(shù)給我們的生活帶來了新的挑戰(zhàn),但國(guó)際社會(huì)普遍認(rèn)為,不能“因噎廢食”,拒絕發(fā)展相關(guān)技術(shù)。在技術(shù)進(jìn)步的過程中,其本身就可以用來對(duì)抗“深度造假”行為。

        專家學(xué)者、相關(guān)領(lǐng)域的企業(yè)機(jī)構(gòu)想過不少應(yīng)對(duì)辦法。比如在傳播之前標(biāo)明“數(shù)字出處”。去年12月,一款名為mist的隱形圖片水印在網(wǎng)上發(fā)布,該水印用于抵抗AI模型對(duì)圖片的訓(xùn)練和抓取,這一水印能夠極大程度干擾AI模型,使之生成的圖片遭受不同程度的破壞。此外,也有開發(fā)者建議讓AI生成平臺(tái)、公司給相關(guān)的AI生成軟件加上隱形水印機(jī)制,以快速識(shí)別AI并進(jìn)行溯源,各個(gè)社交平臺(tái)也應(yīng)以技術(shù)手段加強(qiáng)對(duì)于疑似AI生成圖、文、視頻內(nèi)容的識(shí)別功能。

        還可以利用技術(shù)手段檢測(cè)偽造。2018年6月,美國(guó)達(dá)特茅斯學(xué)院和紐約州立大學(xué)奧爾巴尼分校的計(jì)算機(jī)科學(xué)家宣布開發(fā)了一個(gè)程序,通過在視頻中觀察研究對(duì)象眨眼時(shí)眼瞼運(yùn)動(dòng)是否異常,來檢測(cè)“深度造假”。當(dāng)然,在攻防過程中,“深度造假”技術(shù)可能隨著檢測(cè)技術(shù)演進(jìn)而不斷升級(jí)。

        另有專家認(rèn)為,除了技術(shù)解決方法之外,法律手段也要有所作為。在以技術(shù)制約技術(shù)的同時(shí),及時(shí)完善立法,不斷加強(qiáng)執(zhí)法,對(duì)一些技術(shù)解決不了的問題應(yīng)該立法重罰,追究刑事責(zé)任。比如規(guī)定制作或分享“深度仿冒品”,構(gòu)成誹謗、欺詐或盜用他人肖像等民事和刑事違法行為等。早在2019年,中國(guó)便發(fā)布了《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,旨在防止傳播利用基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等新技術(shù)新應(yīng)用制作的假新聞音視頻(即深度偽造)。

        “深度偽造”是人工智能“深度學(xué)習(xí)”技術(shù)進(jìn)步的產(chǎn)物。它有許多有價(jià)值的應(yīng)用,例如出于教育目的而制作歷史人物的音頻或視頻。但是,“深度偽造”也可能被用于險(xiǎn)惡目的。如何控制技術(shù)向善除惡,是一個(gè)需要不斷學(xué)習(xí)的課題。各國(guó)應(yīng)加強(qiáng)交流合作,通過技術(shù)和法律等手段,規(guī)避人工智能相關(guān)風(fēng)險(xiǎn),使之健康有序發(fā)展。

      (責(zé)編:李雨潼)

      版權(quán)聲明:凡注明“來源:中國(guó)西藏網(wǎng)”或“中國(guó)西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國(guó)西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。