AI風(fēng)險堪比核能?詐騙、失控等眾多黑暗面,我們該如何應(yīng)對?
你敢相信嗎,一個普通的視頻聊天,竟然讓一位福州市民損失了430萬元!這就是最近發(fā)生的一起利用AI技術(shù)實(shí)施電信詐騙的驚人案例,它引發(fā)了全國網(wǎng)友的熱議和關(guān)注。
而在國外,有關(guān)AI造假的問題也是層出不窮。有人用AI技術(shù)制造了美國前總統(tǒng)特朗普“被捕”的假新聞,也有人用AI技術(shù)模仿了歐盟委員會主席的聲音,向德國總理打了個騙局電話。
這些新聞表明,AI技術(shù)的濫用和誤用已經(jīng)成為一個全球性的問題,在這種情況下,人們越來越擔(dān)心 ChatGPT 等人工智能的發(fā)展可能對社會帶來嚴(yán)重的威脅。對此,包括“ChatGPT之父”Sam Altman在內(nèi)的350位AI權(quán)威自發(fā)簽署了一封聯(lián)名公開信,警告AI可能會對人類構(gòu)成滅絕性風(fēng)險。
此前,深度學(xué)習(xí)之父Hinton也曾為了警告AI的風(fēng)險,不惜從谷歌離職。的確,AI技術(shù)的發(fā)展和應(yīng)用不僅給人們帶來了便利和福祉,也帶來了巨大的挑戰(zhàn)和危機(jī)。
如何識別和應(yīng)對AI的潛在風(fēng)險,已經(jīng)成為當(dāng)下亟待解決的問題,而我們將在以下內(nèi)容中針對這些問題做詳細(xì)的闡述。
AI有哪些風(fēng)險?
? 倫理和道德風(fēng)險
想象一下,如果有一天,AI技術(shù)發(fā)展到了超越人類智慧的水平,它會怎么對待我們?它會尊重我們的價值觀和利益嗎?它會保護(hù)我們的主體地位和自由嗎?科幻小說中人類的機(jī)器大戰(zhàn)的場面是否會成為現(xiàn)實(shí)?
這是我們需要認(rèn)真思考的一個非常重要的問題,因?yàn)樵贏I技術(shù)的發(fā)展和應(yīng)用中,倫理和道德風(fēng)險已經(jīng)悄然出現(xiàn)。
一方面,AI系統(tǒng)可能成為人類偏見的鏡子或放大器,導(dǎo)致不公平的決策或行為;另一方面,AI系統(tǒng)可能區(qū)別對待不同的個人或群體,比如有些招聘系統(tǒng)可能會針對某些性別或種族,從而影響他們的就業(yè)前景。
? 經(jīng)濟(jì)風(fēng)險
AI技術(shù)所引發(fā)的經(jīng)濟(jì)風(fēng)險也與我們的生活息息相關(guān)。詐騙分子通過“換臉”和“擬聲”等技術(shù)模仿受害人的朋友或親戚的聲音和外貌,讓受害人完全分不清真假,這便是利用AI技術(shù)進(jìn)行詐騙的典型方式。
據(jù)報道,這種詐騙的成功率高達(dá)100%,已經(jīng)造成了多起重大財產(chǎn)損失,給人們帶來了嚴(yán)重的經(jīng)濟(jì)風(fēng)險。
目前,AI詐騙包括以下幾種常用手法:
聲音合成:詐騙者通過騷擾電話錄音等來提取某人聲音,獲取素材后進(jìn)行聲音合成,從而可以用偽造的聲音騙過對方。
AI程序篩選受害人和換臉技術(shù):詐騙分子首先分析公眾發(fā)布在網(wǎng)上的各類信息,然后根據(jù)所要實(shí)施的騙術(shù),通過AI技術(shù)篩選目標(biāo)人群,最后在視頻通話中利用AI換臉騙取信任。在短時間內(nèi)便可生產(chǎn)出定制化的詐騙腳本,從而實(shí)施精準(zhǔn)詐騙。
轉(zhuǎn)發(fā)微信語音:詐騙分子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會通過提取語音文件來實(shí)現(xiàn)語音轉(zhuǎn)發(fā),進(jìn)而實(shí)施詐騙。
? 技術(shù)風(fēng)險
作為一種改變?nèi)藗兩罘绞胶凸ぷ鞣绞降募夹g(shù),AI的廣泛應(yīng)用為人們帶來了極大的便利,但同時AI技術(shù)的發(fā)展也給人類帶來了一系列的技術(shù)危害和技術(shù)風(fēng)險。
首先是數(shù)據(jù)隱私和安全問題。AI技術(shù)需要處理的數(shù)據(jù)通常涉及到用戶的個人信息,如果這些數(shù)據(jù)處理不當(dāng)或泄露,將給用戶帶來巨大的損失和安全隱患。
其次,AI技術(shù)往往采用黑箱技術(shù),以獲得更高的預(yù)測能力和效率,這使得AI系統(tǒng)不能向人類提供足夠的可解釋性,使得AI系統(tǒng)無法“解釋”其行為或決策的標(biāo)準(zhǔn),可能產(chǎn)生誤導(dǎo)性和歪曲性。
除了以上技術(shù)問題以外,清華大學(xué)教授陶建華曾表示,大模型的安全漏洞威脅大模型的應(yīng)用生態(tài)和國家安全,如數(shù)據(jù)投毒攻擊、對抗樣本攻擊,以及模型竊取攻擊國家、企業(yè)、個人信息竊取等。
? 社會風(fēng)險
AI技術(shù)的不斷發(fā)展還導(dǎo)致了越來越多的工作被自動化取代,部分人失去了工作機(jī)會,從而使得富人和窮人之間的差距越來越大。
在某些行業(yè)中,AI可能會取代人類工作崗位,如制造業(yè)、商業(yè)、金融和法律,這會導(dǎo)致失業(yè)、職業(yè)轉(zhuǎn)移和社會經(jīng)濟(jì)的重大變化,進(jìn)一步造成失業(yè)率上升,并對整個社會產(chǎn)生負(fù)面影響。
除此之外,AI可能對人類的社交和人際交往能力產(chǎn)生影響。在未來,人類可能會傾向于與機(jī)器對話,而不是與真正的人進(jìn)行交流,這將對我們的社會聯(lián)系和人類身份認(rèn)同帶來重要的改變。
如果AI技術(shù)變得足夠智能,可能會超出人類的控制范圍,從而導(dǎo)致不可預(yù)測的人類控制喪失。最后,由于人工智能技術(shù)的發(fā)展需要大量投資和技術(shù)資源,可能會導(dǎo)致一些國家或組織比其他國家或組織更具競爭力,從而加劇社會不平等。
該如何應(yīng)對?
? 國家層面
盡管人工智能技術(shù)具有跨國性質(zhì),并且圍繞它的擔(dān)憂程度很高。在AI監(jiān)管方面,自2017年以來,69個國家共通過了800多項(xiàng)人工智能法規(guī)。
但在人工智能監(jiān)管或數(shù)據(jù)使用方面仍然沒有統(tǒng)一的政策方法,那么,世界各地的政府機(jī)構(gòu)是如何處理這個問題的呢?
世界各地的政府機(jī)構(gòu)正在努力制定人工智能監(jiān)管和數(shù)據(jù)使用方面的政策。例如,英國宣布將舉辦世界首個人工智能峰會,呼吁加強(qiáng)AI管制。美國國家標(biāo)準(zhǔn)與技術(shù)研究院也已經(jīng)制定了負(fù)責(zé)任地使用人工智能的方法框架,并試圖在政府的AI監(jiān)管工作方面扮演突出角色。
歐盟委員會提出了一項(xiàng)旨在加強(qiáng)人工智能(AI)技術(shù)監(jiān)管的法規(guī)草案,擬創(chuàng)建一個所謂“AI高風(fēng)險應(yīng)用場景”的清單,并對AI技術(shù)在關(guān)鍵基礎(chǔ)設(shè)施、大學(xué)招生、申請貸款等被認(rèn)定為“高風(fēng)險”應(yīng)用領(lǐng)域的開發(fā)和使用制定新的標(biāo)準(zhǔn),并進(jìn)行有針對性的監(jiān)管。
此外,中國政府也在積極推進(jìn)人工智能監(jiān)管和數(shù)據(jù)使用方面的政策,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《人工智能安全評估規(guī)范》等文件,以加強(qiáng)對人工智能安全性的監(jiān)管。
在近日國務(wù)院辦公廳印發(fā)的《國務(wù)院2023年度立法工作計劃》中,人工智能法草案等也將預(yù)備提請全國人大常委會審議。
由此可見,國家政府機(jī)構(gòu)在處理人工智能監(jiān)管或數(shù)據(jù)使用方面問題時,通常會制定一些法規(guī)或指南來規(guī)范相關(guān)行為。這些法規(guī)或指南通常會涉及到人工智能技術(shù)的安全性、隱私保護(hù)、公平性、透明度等方方面面。
? 企業(yè)層面
為了更好地應(yīng)對AI所帶來的風(fēng)險,不只是國家層面,還需要使用AI技術(shù)的相關(guān)企業(yè)也做出努力。
如今,AI已在許多企業(yè)內(nèi)外納入應(yīng)用層面,其中的一個重要布局是與大數(shù)據(jù)相結(jié)合,能夠?qū)崿F(xiàn)智能營銷、分析需求、提升服務(wù)、改進(jìn)供應(yīng)鏈等。
但應(yīng)用該技術(shù)也暴露出不少弊端,即使是ChatGPT也存在不知道實(shí)時信息的局限性,更多依賴AI可能會招致黑客攻擊。最優(yōu)的選擇便是用最新的算法更新系統(tǒng),實(shí)現(xiàn)“技術(shù)為王”。
此外,針對AI技術(shù)衍生的部分道德倫理問題,比如自動篩選與分類容易導(dǎo)致歧視與偏見,以及面部識別技術(shù)可能會暴露人的隱私等,企業(yè)在其中往往扮演主要角色。
不可否認(rèn),逐利是企業(yè)的天性,但作為社會的一員,企業(yè)還應(yīng)承擔(dān)相應(yīng)的社會責(zé)任,合法使用用戶數(shù)據(jù)并保障知情權(quán),主動建立企業(yè)內(nèi)部監(jiān)管機(jī)制,主動接受國家與社會的監(jiān)督。竭澤而漁,顯然不是市場競爭的長遠(yuǎn)選擇。
? 個人層面
目前AI詐騙的新聞大多集中于個人案例,因此每個人都應(yīng)當(dāng)提高防范能力,包括反詐意識與技術(shù)知識。
我們不僅要對陌生網(wǎng)址、短信、電話、好友保持警惕,更要對熟人在網(wǎng)絡(luò)上突如其來的匯款請求與提供個人隱私信息的要求提高警覺。
當(dāng)無法見面核實(shí)真實(shí)情況時,請拒絕涉及隱私與財產(chǎn)的要求,一旦發(fā)現(xiàn)風(fēng)險,請第一時間尋找有關(guān)部門的幫助。
了解AI前沿技術(shù)同樣能夠提高個人反詐能力。一個人很難賺到認(rèn)知之外的錢,同樣,也難以丟掉認(rèn)知之內(nèi)的錢。雖然中老年人容易因不熟悉網(wǎng)絡(luò)而被詐騙,但實(shí)際上AI詐騙早已滲透年輕一代里。詐騙者往往利用被詐騙者的自信自負(fù)、虛榮愛面子、撿漏撈偏門等心理,從而達(dá)到其目的。
理性對待AI風(fēng)險
我們必須要意識到,人工智能的發(fā)展對人類社會是一把雙刃劍。AI到今天已成為不可逆的社會潮流,但現(xiàn)有與潛在的風(fēng)險需要我們提前預(yù)防。
英國阿斯頓大學(xué)學(xué)者大衛(wèi)·科林格里奇曾提出,創(chuàng)新技術(shù)如果因?yàn)閾?dān)心后果采取提早控制,那么很可能就不會爆發(fā),如果控制過晚,就很可能會走向失控。AI失控此前只存在于科幻作品中,但近來諸如“AI將會毀滅人類”的言論甚囂塵上,引發(fā)的詐騙、隱私等問題也暴露無遺。
想要突破AI的科林格里奇困境,需要國際組織、國家機(jī)關(guān)、企業(yè)團(tuán)體與個人聯(lián)合努力,攜手并進(jìn)。
在社會高速公路上急馳AI,急停只會造成難以估量的損失,我們要做的,唯有勻速向前。
【聲明】:本文為元宇宙之心運(yùn)營團(tuán)隊原創(chuàng),未經(jīng)允許嚴(yán)禁轉(zhuǎn)載,如需轉(zhuǎn)載請聯(lián)系我們,文章版權(quán)和最終解釋權(quán)歸元宇宙之心所有。
原文標(biāo)題 : AI風(fēng)險堪比核能?詐騙、失控等眾多黑暗面,我們該如何應(yīng)對?
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-12.26立即報名>>> 【在線會議】村田用于AR/VR設(shè)計開發(fā)解決方案
-
1月8日火熱報名中>> Allegro助力汽車電氣化和底盤解決方案優(yōu)化在線研討會
-
即日-1.14火熱報名中>> OFweek2025中國智造CIO在線峰會
-
即日-1.24立即參與>>> 【限時免費(fèi)】安森美:Treo 平臺帶來出色的精密模擬
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
-
精彩回顧立即查看>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容