侵權(quán)投訴
訂閱
糾錯
加入自媒體

大模型引領(lǐng)技術(shù)浪潮,AI安全治理面臨“大考”

從文生文到文生圖,再到文生視頻,近年來,以ChatGPT、Sora等為代表的大模型引領(lǐng)了全球人工智能技術(shù)與產(chǎn)業(yè)的新一輪浪潮。2024年更是被業(yè)內(nèi)稱為大模型應用爆發(fā)元年。

年初,Sora橫空出世驗證了Scalling Law在視頻生成方面的有效性。但Sora始終止步于公開的60秒Demo,產(chǎn)品落地計劃遲遲未公開。

隨后的半年時間,不少玩家繼續(xù)在AI視頻生成賽道展開角逐。今年6月,快手發(fā)布視頻生成大模型“可靈”。緊隨其后,國外知名3D建模平臺Luma AI也高調(diào)入局,并宣布對所有用戶免費開放其文生視頻模型,再掀波瀾。近日,智譜AI也正式上線了AI視頻生成功能清影(Ying),全面入局文生視頻及圖生視頻賽道,生成6秒視頻僅需30秒的時間。

人工智能技術(shù)的普及應用一方面為社會發(fā)展帶來了巨大的技術(shù)紅利,另一方面也帶來了風險挑戰(zhàn)。

哲學家海德格爾曾反思過現(xiàn)代技術(shù)的危險性,其認為現(xiàn)代技術(shù)強調(diào)效率,在這種效率觀念的促逼下,人類反而被技術(shù)所控制和占有,成為了技術(shù)的奴隸,受到技術(shù)發(fā)展的支配。雖然當下加速了發(fā)展進程,但是盲目的發(fā)展最終會導致一系列的社會危機,這是人類不可忽視的問題。

AI繁榮表象下的安全隱憂

近年來,一些不法分子利用人工智能深度偽造新工具實施電信詐騙、散布虛假視頻、激化社會矛盾,給安全領(lǐng)域帶來了諸多風險。人工智能深度偽造是一種利用人工智能技術(shù)合成、修改或替換圖像、視頻和音頻內(nèi)容的技術(shù),可以將一個人的面部表情、言辭和動作應用到其他人的圖像或視頻上,使生成的內(nèi)容看似原始內(nèi)容。這項技術(shù)讓假新聞和虛假信息更具迷惑性,嚴重威脅公眾的信任和社會穩(wěn)定。

此類安全產(chǎn)生的主要原因在于,技術(shù)發(fā)展速度過快而法律法規(guī)和倫理規(guī)范未能及時跟進,F(xiàn)有的法律框架往往難以適應人工智能的快速發(fā)展,導致監(jiān)管滯后。

例如,AI自動駕駛汽車的責任認定問題,目前尚無明確的法律規(guī)定。當人工智能系統(tǒng)出現(xiàn)故障導致事故時,如何界定制造商、開發(fā)者和用戶的責任,成為法律界亟待解決的難題。

同時,人工智能的決策機制和數(shù)據(jù)處理方式存在不透明性,可能導致偏見和歧視的擴散。例如,面部識別技術(shù)在執(zhí)法中的應用可能帶來隱私侵害和種族偏見的問題。經(jīng)濟基礎決定上層建筑,上層建筑反作用于經(jīng)濟基礎,當上層建筑為適合生產(chǎn)力發(fā)展的經(jīng)濟基礎服務時,它就成為推動社會發(fā)展的進步力量;反之則成為阻礙社會發(fā)展的力量。當前的法律法規(guī)和倫理規(guī)范已經(jīng)落后于人工智能技術(shù)發(fā)展水平,亟需改良進步。

受到發(fā)展水平、價值觀念、文化差異和國家利益等多個因素的影響,各國推動的治理框架和解決方案通常在防范風險、公平公正、隱私保護和國家安全等方面有不同關(guān)切,而人工智能的發(fā)展趨勢和特征卻要求在全球治理方面構(gòu)建更加包容的框架。

因此,在當前形勢下,在推動全球人工智能治理框架、標準和規(guī)范形成廣泛共識方面,仍存在諸多挑戰(zhàn)與難題。

首先,人工智能技術(shù)本身的復雜性和快速發(fā)展使得全球治理更加困難。人工智能技術(shù)涉及深度學習、自然語言處理、計算機視覺等多個領(lǐng)域,每個領(lǐng)域都有其獨特的技術(shù)挑戰(zhàn)和應用場景,治理的復雜性大大增加,并且人工智能技術(shù)更新速度快,傳統(tǒng)的立法和監(jiān)管手段難以跟上技術(shù)進步的步伐。即使制定了相關(guān)政策和法規(guī),也可能很快變得過時,需要不斷更新和調(diào)整。隨著人工智能應用的廣泛普及,數(shù)據(jù)隱私、不公平與歧視性,以及國家安全等風險日益彰顯。人工智能技術(shù)及其引發(fā)的全局性、系統(tǒng)性和國際性風險將成為全球治理合作面臨的挑戰(zhàn)之一。

其次,人工智能技術(shù)的發(fā)展涉及巨大的經(jīng)濟利益,各國之間在技術(shù)研發(fā)、市場份額和產(chǎn)業(yè)布局方面存在激烈競爭。一些國家和科技公司在人工智能領(lǐng)域占據(jù)領(lǐng)先地位,不愿意在國際治理框架中受到限制,擔心影響自身的競爭優(yōu)勢;人工智能技術(shù)的應用涉及廣泛的商業(yè)利益,各國可能會為了保護本國企業(yè)的市場份額而抵制統(tǒng)一的國際規(guī)范;不同國家在產(chǎn)業(yè)政策上也會有不同的側(cè)重點,一些國家可能會更傾向于保護本國的人工智能產(chǎn)業(yè),制定有利于自身發(fā)展的政策,而不是參與全球性的治理框架。

第三,主體多元將成為制約全球人工智能治理的因素。當前人工智能治理仍以政府為主導,主要表現(xiàn)為中國、歐盟、美國等制定和發(fā)布了一系列人工智能治理倡議、規(guī)劃和立法。然而,私營部門在人工智能技術(shù)發(fā)展中也發(fā)揮著不可忽視的作用,謀求人工智能規(guī)則的話語權(quán)可以增強其影響力。多利益攸關(guān)方以自身利益為中心,可能導致人工智能治理主導權(quán)和規(guī)則制定權(quán)的多方博弈甚至惡性競爭。倘若如此,將嚴重損害各方在人工智能全球治理上的合作動能。

第四,人工智能技術(shù)的發(fā)展依賴于大量數(shù)據(jù)的收集和共享,但數(shù)據(jù)隱私和安全問題卻成為全球治理的重要難題。許多國家對本國數(shù)據(jù)的控制權(quán)有很強的保護意識,不愿意輕易共享數(shù)據(jù)。而且各國對數(shù)據(jù)隱私保護的標準和要求不同,一些國家可能對數(shù)據(jù)的跨境流動設置嚴格的限制。

第五,少數(shù)科技巨頭公司在人工智能技術(shù)和市場上占據(jù)主導地位,導致全球治理面臨技術(shù)壟斷和不平等問題。大型科技公司在人工智能技術(shù)研發(fā)和應用方面占據(jù)主導地位,擁有巨大的經(jīng)濟和政治影響力,可能會影響政策的制定和執(zhí)行。

人工智能技術(shù)的發(fā)展還可能加劇全球范圍內(nèi)的經(jīng)濟不平等,發(fā)展中國家在技術(shù)和資源方面處于劣勢,難以在全球治理中發(fā)揮有效作用。

面對人工智能全球治理的多重挑戰(zhàn)和現(xiàn)實困境,中國提出推動構(gòu)建人類命運共同體為愿景的解決方案。在7月舉行的2024世界人工智能大會暨人工智能全球治理高級別會議上,清華大學蘇世民書院院長、清華大學人工智能國際治理研究院院長薛瀾曾表示,從全球角度來講,人工智能發(fā)展面臨著很多挑戰(zhàn)。

要把AI發(fā)展和安全作為“一體兩翼”,通過多途徑建立國際交流及防控體系,加強政府間的多邊對話機制,同時通過科學共同體力量助力國際機制全面完善。

同時發(fā)揮聯(lián)合國等國際組織的綜合全面協(xié)調(diào)作用,打破各種壁壘,加強國際合作協(xié)議,同時在產(chǎn)業(yè)、科學界共同努力下推動人工智能合理、健康發(fā)展,為人類和平與發(fā)展作出更大的貢獻。

圖靈獎得主、中國科學院院士、清華大學交叉信息研究院院長姚期智表示,人工智能最有深度、最有意思的風險來自AI生存或者存在的風險。要控制好AI,但又不能破壞它,“正如圖靈所說,這是無法預測的,預測不了機器有了足夠算力之后會做什么。”

因此,AI風險需要專家來解決,不僅是科學家,還可能需要政府、律師、經(jīng)濟學家來參與,幾乎涉及到每一個行業(yè)。

上海人工智能實驗室主任、銜遠科技創(chuàng)始人周伯文認為,目前,世界上只有1%的資源投入在對齊或者安全考量上,對AI安全的投入遠落后于AI性能的投入。人類將遵循“AI-45°平衡律”,沿著可信AGI的“因果之梯”拾級而上,探索人工智能系統(tǒng)安全和能力的系統(tǒng)性平衡之路。

道阻且長,行則將至 

全球人工智能治理倡導“以人為本、智能向善、造福人類”的原則,這既代表了人工智能發(fā)展的主線,也代表了治理的宗旨。

7月24日,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(簡稱“AIIA”)安全治理委員會成果發(fā)布會舉行。會上,AIIA秘書長、中國信息通信研究院院長余曉暉表示,開展人工智能安全治理工作不僅是我國推動人工智能發(fā)展和安全的重要工作,也是全人類共同需要對待的重大問題。如何釋放出人工智能最大向善的能力,造福于人類,促進經(jīng)濟社會發(fā)展,需要世界各國共同推動。

AIIA秘書長、中國信息通信研究院院長余曉暉

AIIA安全治理委員會主任委員、公安部信息安全等級保護評估中心原副主任、研究員畢馬寧表示,過去一年,大模型發(fā)展速度之快,賦能范圍之廣,讓業(yè)界看到了通用人工智能的實現(xiàn)路徑與曙光,但人工智能安全問題的嚴重性與緊迫性不容忽視。在從不同層面審視人工智能安全問題時,可以發(fā)現(xiàn)人工智能所帶來的安全挑戰(zhàn)已經(jīng)從技術(shù)本身所帶來的數(shù)據(jù)、算力、系統(tǒng)等傳統(tǒng)安全問題,逐漸向?qū)人、組織、國家社會、人類生態(tài)的衍生安全問題蔓延。

  AIIA安全治理委員會主任委員、公安部信息安全等級保護評估中心原副主任、研究員畢馬寧

AIIA總體組組長、中國信通院人工智能研究所所長魏凱表示,世界各國都對人工智能的發(fā)展表示出非常大的期待,不論是發(fā)達國家或者發(fā)展中國家,普遍認為人工智能是一個巨大的機遇,同時也對人工智能的確定性安全和風險挑戰(zhàn)表示擔憂。

多年來,中國信通院作為國家智庫產(chǎn)業(yè)平臺,不僅聯(lián)合各方在中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟下成立了安全委員會,搭建人工智能安全方面交流合作平臺,同時聯(lián)合產(chǎn)業(yè)界發(fā)布了《人工智能治理框架》,提出以風險為導向的人工智能研判理論體系,并發(fā)布一系列人工智能安全合規(guī)方面的標準規(guī)范,協(xié)助企業(yè)提升安全能力。

圍繞大模型安全,中國信通院還啟動大模型安全基準測試,為國內(nèi)企業(yè)開展大模型安全防范工作提供參考。此外,與國際組織各國就人工智能的安全治理工作開展雙邊、多邊的討論交流,共同推動人工智能在全球的發(fā)展和安全的治理工作。

目前,全球針對人工智能安全已有很多聲明和請愿,但更重要的是要明確目標、投入資源、采取行動,攜手結(jié)伴共同應對風險。各國和地區(qū)針對人工智能治理正從原則治理走向安全實踐的新階段。

治理框架方面,各國和地區(qū)基本形成本土治理方案。比如美國推出《人工智能風險管理框架》推動基于風險的治理實踐。歐盟《人工智能法》構(gòu)建了風險分級的治理方案,并即將正式生效。

新加坡在原先治理框架基礎上推出了《生成式人工智能治理模型框架》,提出人工智能評估需考慮的九個維度。日本發(fā)布《人工智能運營商指南》,為開發(fā)者、提供者、使用者制定行為準則。我國從《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》到《生成式人工智能服務管理暫行辦法》精準化治理前沿技術(shù)。

治理工具方面,全球積極推出安全測試評估平臺。美國成立人工智能安全研究所和安全聯(lián)盟以推動制定人工智能安全標準和開展安全評測,并于近期啟動“評估人工智能的風險和影響”計劃。英國人工智能安全研究所推出“Inspect”人工智能模型安全評估平臺。新加坡依托“AI Verify”發(fā)布軟件工具包,推動新技術(shù)的沙箱測試。我國已有近140個大模型通過安全評估與備案,形成良好示范效應。

可以看出,安全已成為各國人工智能治理的核心關(guān)切,保障安全是人工智能技術(shù)創(chuàng)新發(fā)展的基石,也是推動人工智能產(chǎn)業(yè)可持續(xù)發(fā)展的重要前提。

道遠路長,行則將至。人工智能治理是一個不容忽視又實時更新的問題,未來也許將有超出現(xiàn)有認知的挑戰(zhàn),這就需要國際社會攜手共同努力,為人工智能的發(fā)展把好方向盤,顯然是未來與技術(shù)狂奔向前相伴的另一個主旋律。讓每一個人成為人工智能的使用者、受益者,也讓每一個人成為人工智能的設計者、治理者。

 相關(guān)閱讀

人工智能“頂流”齊聚WAIC 2024,他們都做了什么?

算網(wǎng)筑基AI注智,中國聯(lián)通如何講出AI時代的“新故事”?

“元年”之后,生成式AI將走向何方?

何許人也?敢把大模型價格“打骨折”?

造完“大模型”,“具身智能”將引領(lǐng)AI下一個浪潮?

從“奇點”到“大爆炸”,生成式AI開啟“十年周期”

【科技云報道原創(chuàng)】

轉(zhuǎn)載請注明“科技云報道”并附本文鏈接

       原文標題 : 大模型引領(lǐng)技術(shù)浪潮,AI安全治理面臨“大考”

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    安防 獵頭職位 更多
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號