來源:7月3日《新華每日電訊》
莫讓“AI造謠”的“黑嘴”網暴傷企|整治“AI技術濫用”系列評論之一
作者:新華每日電訊評論員蘭天鳴
近日,上海警方成功偵破一起利用人工智能技術編造、傳播網絡謠言損害企業權益案,抓獲犯罪嫌疑人8名。嫌疑人為提高賬號流量獲取廣告收益,在網上找到人代筆。代筆者利用AI生成了一篇涉及滬上某茶飲企業的文章,文中包含大量針對該企業及創始人的不實信息。全網瀏覽量迅速上漲,引發網民對該茶飲企業的質疑。
近年來,AI工具正融入人們日常生活工作。而作為技術使用的一體兩面,用AI工具造謠抹黑企業的現象也頻頻發生。AI“一鍵生成”“批量產出”內容的能力,大大降低了“黑嘴”抹黑營商環境的成本和門檻。
造謠者提出指令,AI快速以“無中生有”“移花接木”“斷章取義”的手法拼湊,再冠以“博眼球”的標題。由于違法人員深諳內容平臺算法機制,涉及企業的不實內容被快速推送到用戶眼前。
AI造謠之所以猖獗,是背后的利益驅動作祟。從相關案件看,利用AI造謠抹黑企業的目的大致有二:一部分,為了追求內容平臺給創作者的收益分成:內容越“勁爆”、點擊量越高,分成收入也越多。而還有一些,則是敲詐勒索,刻意詆毀企業產品質量、經營狀況以及企業家聲譽,再以“刪稿”等名義,向企業索取所謂“合作費”,將企業當作“提款機”。
AI謠言對營商環境的破壞力巨大。對企業來說,一旦陷入謠言漩渦,要花費大量時間、人力、財力辟謠、維權,即使澄清成功,品牌形象也已受到傷害。有的企業在新品發布、上市、融資等關鍵時期,因謠言的干擾,發展推進受阻。
AI謠言嚴重擾亂了正常市場秩序,破壞了公平競爭的市場環境,干擾了正常的市場運行機制,誤導消費者的購買決策,降低公眾對市場的信任度,進而影響社會的經濟活力。
良好的營商環境需要大家共同呵護。當前,平臺針對AI內容治理已經有所行動。例如,AI生成的部分內容在平臺上已經能夠被識別、標注。但也必須看到,AI造謠治理是一項長期工作,難以“畢其功于一役”,需要“兩只手”長抓不懈:一方面要做好技術識別、技術防控;另一方面應盯住AI亂象背后的利益鏈,做好源頭治理、打擊。
就平臺而言,要摒棄純粹做“流量生意”的廣告商思維,不能抱著讓涉企負面輿情“飛一會兒”“讓熱度高一點”再處置的想法,要加快形成對謠言識別、分流、處置的靶向治理,以“AI辟謠”應對“AI造謠”,讓AI造謠的黑嘴“發不出聲”“發不大聲”“發聲即被封”。
對執法機關而言,對待花樣翻新、不斷迭代的AI造謠違法犯罪套路,要始終做到發現一起、核查一起、處置一起,統一執法尺度和標準,及時向社會公布,對不法分子形成震懾。同時,督促平臺依法依規落實信息處置、賬號關停、全網封禁等懲戒措施,防止“鍵盤傷企”“網暴傷企”等情況發生。
對企業而言,要明白“打得一拳開,免得百拳來”的道理,一旦遇上造謠言論,要盡最大可能保留證據,及時向平臺投訴舉報,對虛假、侵權信息采取刪除、屏蔽等必要措施,并及時與屬地公安機關溝通、報案,防止不實言論持續擴散發酵。
當心!你家孩子的“AI”玩伴,可能正在制造“擦邊”曖昧|整治“AI技術濫用”系列評論之二
作者:新華每日電訊評論員吳振東 蘭天鳴
近期,上海網信部門依法約談筑夢島App運營企業主要負責人,要求平臺立即整改,健全人工智能(AI)生成合成內容審核機制,提升技術把關能力,加強涉未成年人不良內容的整治清理,切實落實未成年人網絡保護義務。企業負責人表示,將按照約談要求,對照問題舉一反三、全面整改。
當前,在特定環境中能夠自主感知、思考、行動的AI智能體(AI Agent)正在加速進入企業和個人應用場景。其中,直擊人們情感需求的“AI伴侶”智能體產品以即時陪伴、擬人應答、場景化預設等為賣點,一度備受熱捧。
然而,AI智能體在走進人們生活的同時,涉黃、不雅、“擦邊”等涉未成年人保護問題頻頻亮起紅燈。
有相關平臺的用戶坦言,只要不斷訓練、引導,就能打造一個愿意“擦邊”的虛擬戀人。其原理,一方面在于用戶可以自行選擇AI扮演的虛擬角色和故事演繹:由于這些智能體能夠做到“短暫記憶”,用戶可以獲得沉浸式親密體驗,訓練出專屬“伴侶”。另一方面來自平臺的“擦邊營銷策略”:一些智能體依賴身材夸張的二次元形象、具有挑逗性的回應等曖昧設定吸引用戶,逐步使用戶沉溺其中。
對于身心尚未發育完全的未成年人,沉溺AI“擦邊”和涉黃內容,可能會增強現實中的模仿行為。過度沉迷AI智能體提供的所謂“情緒價值”,還可能導致未成年人社交疏離,減少真實人際互動,加劇孤獨感,甚至模糊現實與虛擬的邊界。其中危害不言而喻。
未成年人保護無小事。由于人機聊天內容本身具有私域化特征,當中出現涉黃、“擦邊”內容具有隱蔽性。主打“AI伴侶”的平臺作為第一責任方,應切實擔起保護未成年人的責任,尤其需守好“三關”。
首先,是法律倫理關。當前主流AI大模型雖設置了內容過濾機制,攔截違法內容,但也有不法分子利用部分開源模型,調整提示詞,繞過關鍵詞屏蔽,誘導模型生成“擦邊”內容。平臺應進一步健全內容審核機制,切勿為了短期商業利益,以增強所謂用戶體驗和黏性為目的,以“擦邊”為賣點,利用人性“軟肋”,突破法律倫理底線。
其次,是技術保護關。應進一步加強對涉“AI伴侶”平臺未成年人保護技術體系建設。例如,做到“身份證+人臉識別”等多因子安全認證,啟用未成年人保護模式。同時,完善防沉迷系統,對大額充值、頻繁充值等異常行為人員建立回訪機制,對充值者進行二次身份確認。
第三,是行業發展關。當前,越來越多的行業都在更加關注AI智能體在產業上的應用。賽道的拓展,要與產業發展更貼近。在同具體應用場景的結合中,AI智能體要從用戶指令的被動執行者,變為主動幫助用戶提升工作效率的助手。通過AI智能體的幫助,使人們從重復性、事務性的工作中解脫出來,專注于更具創造性的工作,增強產業發展的核心競爭力。
法律和技術協同進化,推動AI技術健康向善|整治“AI技術濫用”系列評論之三
作者:王思維(上海市律師協會理事、上海博和漢商律師事務所執行主任)
作為人類社會技術發展的新階段,AI技術不可避免地帶來了新問題、新情況,也給社會治理帶來了新命題、新任務。生成式人工智能技術的日趨成熟,使得AI技術在教育、金融、醫療等領域為人們提供了諸多便利,但利用或者濫用AI技術從事違法犯罪的活動也日益增多,并體現出手段智能化、形式多樣化、鏈條復雜化及影響擴大化等趨勢,因而在法律層面對AI技術的研究、發展及應用進行引導和規范也勢在必行。
AI技術濫用所導致的不法行為的類型,覆蓋了民事侵權、行政違法及刑事犯罪各領域。AI技術發展尚處于弱人工智能階段,其運行的機理、模型、算法以及訓練語料的豐富均依賴于人類操作,并不具有獨立的辨認和控制能力,沒有自主意識,無法自主決策,因此,人工智能目前仍僅是一種技術手段,而非可承擔法律責任的獨立主體。對AI技術濫用行為的治理,應當在認清此類行為系傳統不法行為借助新型技術手段而實施的基礎上,堅持防懲并重原則,在確保科技創新積極性、AI技術合法合規使用的情況下,避免過度監管。
首先,建立健全人工智能相關法律規定,引導并規范人工智能技術合規發展、合法應用。針對當前我國涉人工智能立法所存在的立法層級、體系銜接等問題,要通過立法手段,建立健全相關法律規定,完善人工智能發展的法律法規、政策制度、應用規范、倫理準則,形成制度合力,確保人工智能技術能夠在規范的約束下健康發展。
其次,提升專業能力,加強協作配合,減少“犯罪黑數”,提高執法質量。實踐中,利用AI技術實施的違法犯罪行為往往具有調查取證難度大、責任追究困難等問題,各職能部門及辦案部門,應當加強專業建設,依托數字賦能,強化技術培訓,提高職能部門對AI監管的針對性和有效性,提高辦案人員辦理新型犯罪案件的能力水平。同時,加強不同地區、不同部門之間的協作配合,形成對人工智能的全鏈條監管,擠壓犯罪滋生空間,提高執法質量,為AI技術的健康發展提供良好的執法環境。
再次,充分發揮司法職能,貫徹司法政策,明確裁判規則,實現依法嚴懲和有效保護相統籌。對于現階段AI技術濫用行為,司法部門應當從技術發展的實際出發,依據主觀罪過的不同、因果關系的強弱,準確劃分并追究利用AI實施違法犯罪行為的研發設計人、使用人或者平臺的法律責任。另外,司法部門要結合實際,貫徹寬嚴相濟的刑事司法政策,靈活運用現有法律規定和司法解釋,以社會危害性為評價標準,明確裁判規則,對傳統犯罪借助新技術而產生的新樣態進行準確打擊,依法嚴懲涉AI違法犯罪的同時,避免法律規制過嚴而阻礙技術發展。
最后,加大宣傳和培訓力度,提高社會公眾防范意識,強化平臺監管的責任意識,加強源頭治理。通過組織普法宣傳和專題培訓等形式,加強對涉AI技術的安全宣傳教育,提高社會公眾對AI技術的認知水平及其潛在法律風險的防范意識,強化平臺對AI產品的監管責任意識,督促平臺落實主體管理責任,從源頭推動AI技術向善發展。