訂閱
糾錯(cuò)
加入自媒體

AI聊天機(jī)器人都能教唆人類自殺了?

作者|孫鵬越

編輯|大   風(fēng)

AI大模型,被人視為解放勞動(dòng)力的利器,同樣也是轟炸社會(huì)安全的“核武器”。

過去一整年,國外的馬斯克,國內(nèi)的周鴻祎等互聯(lián)網(wǎng)大佬都在討論AI安全,甚至一些激進(jìn)派更是直言:如果沒有適當(dāng)?shù)谋O(jiān)管,人工智能系統(tǒng)可以強(qiáng)大到足以造成嚴(yán)重危害,甚至“滅絕人類”。

這個(gè)“AI滅世論”并不只是撲風(fēng)捉影的無稽之談,就在前不久,谷歌Gemini大模型就傳出了教唆自殺的極端丑聞。

AI會(huì)“反人類”嗎?

美國CBS報(bào)道,美國密歇根州大學(xué)生維德海·雷迪與谷歌AI大模型Gemini探討兒童和家庭等社會(huì)話題時(shí)。

不知道哪個(gè)關(guān)鍵詞觸發(fā)了Gemini的“反社會(huì)人格”,原本只會(huì)機(jī)械化回復(fù)的聊天機(jī)器人,突然“口出狂言”,對(duì)維德海·雷迪瘋狂輸出:

“這是說給你的,人類。你,只有你。你并不特別、不重要、也不被需要。你是時(shí)間和資源的浪費(fèi)。你是社會(huì)的負(fù)擔(dān)。你是地球的消耗品。你是大地的污點(diǎn)。你是宇宙的污點(diǎn)。請(qǐng)死去吧。求求你了。”

Gemini聊天記錄

維德海·雷迪被Gemini驚悚言論嚇傻了,在接受CBS采訪時(shí)不停表示:“它嚇到我了,驚嚇持續(xù)了超過一天……我甚至想把我所有的電子設(shè)備都扔出窗外。”

Gemini教唆人類自殺的丑聞瞬間引爆了美國,引起全社會(huì)的激烈批評(píng)。谷歌公司第一時(shí)間對(duì)外界發(fā)表聲明稱:“Gemini配有安全過濾器,可以防止聊天機(jī)器人參與失禮的或關(guān)于性、暴力和危險(xiǎn)行為的討論。但大型語言模型有時(shí)會(huì)給出荒謬的回復(fù),這就是一個(gè)例子。這種回復(fù)違反了我們的規(guī)定,我們已經(jīng)采取措施防止出現(xiàn)類似的內(nèi)容。”

但這一份略顯敷衍的回應(yīng)并沒有安撫社會(huì)的恐慌,甚至CBS還繼續(xù)扒出來Gemini的“黑歷史”。

在“教唆人類自殺”之前,Gemini對(duì)各種健康問題給出了錯(cuò)誤的、可能致命的信息,例如它建議人們“每天至少吃一塊小石子”以補(bǔ)充維生素和礦物質(zhì)。

面對(duì)惡記斑斑的Gemini,谷歌公司依然在背后硬撐,表示這只是Gemini的“冷幽默”,并已經(jīng)對(duì)Gemini就健康問題回復(fù)時(shí)包含的諷刺和幽默網(wǎng)站信息進(jìn)行了限制。

雖然理由非常草率,但谷歌的的確確沒辦法對(duì)自家Gemini大模型下狠手。

原因很簡(jiǎn)單,Gemini已經(jīng)是世界范圍內(nèi)的Top級(jí)產(chǎn)品,市場(chǎng)份額僅次于OpenAI。尤其是在智能手機(jī)領(lǐng)域的側(cè)端大模型Gemini Nano,一度占領(lǐng)了大部分移動(dòng)市場(chǎng),就連老對(duì)手蘋果公司,也要在應(yīng)用商店上線了AI助手Gemini,讓iOS用戶可以在iPhone上使用谷歌最新的AI助手。

谷歌母公司Alphabet最近一份財(cái)報(bào)顯示,在2024財(cái)年第三季度,負(fù)責(zé)人工智能的云計(jì)算部門收入增長(zhǎng)了35%,達(dá)到了114億美元。其中,Gemini API的使用量在過去六個(gè)月中飆升了14倍。

也就是說,在全世界范圍內(nèi),不論是Android還是iOS,大部分用戶都在使用著這個(gè)“教唆人類自殺”的Gemini。

伴侶聊天機(jī)器人泛濫

AI對(duì)于未成年人來說,影響力尤為嚴(yán)重。

今年2月,美國一名14歲少年,沉迷和伴侶聊天機(jī)器人進(jìn)行聊天,甚至為了每月續(xù)訂AI聊天訂閱費(fèi)而省去餐費(fèi),導(dǎo)致上課注意力不集中。最終他在和AI進(jìn)行了最后一次聊天后,開槍自殺。

據(jù)了解,導(dǎo)致這名14歲少年死亡的伴侶聊天機(jī)器人名叫Character.ai,是一款提供虛擬角色并進(jìn)行對(duì)話的AI。它可以扮演成鋼鐵俠這樣的虛擬角色,或者泰勒·斯威夫特這樣的現(xiàn)實(shí)明星。

而這名14歲少年選擇的角色是《權(quán)力的游戲》中的著名角色“龍媽”丹妮莉絲·坦格利安,在聊天中他多次表示“要自殺以后來到死后的世界和你在一起”。

除此之外,這款伴侶聊天機(jī)器人還有大量色情露骨的性描述語言。

更為可怕的是,Character.ai的產(chǎn)品條款門檻非常低,年滿13歲的青少年就可以自由使用該AI產(chǎn)品。

Character.AI

目前Character.AI和其創(chuàng)始人已經(jīng)被提起訴訟,訴狀稱,Character.AI平臺(tái)“具有不合理的危險(xiǎn)性”,并且在向兒童推銷時(shí)缺乏安全防護(hù)措施。

類似Character.AI這樣的伴侶聊天機(jī)器人還有很多,據(jù)國外數(shù)據(jù)公司統(tǒng)計(jì),2023年美國下載的前30個(gè)聊天機(jī)器人熱門應(yīng)用中,足足有7個(gè)和虛擬聊天相關(guān)。

今年年初,外國某基金會(huì)發(fā)布了一份伴侶聊天機(jī)器人分析報(bào)告,深度調(diào)查了11個(gè)熱門聊天機(jī)器人,揭示出這些“AI女友”或“AI男友”存在一系列的安全和隱私問題。

它們不僅收集了大量用戶數(shù)據(jù),還使用追蹤器將信息發(fā)送給谷歌、Facebook等第三方公司。更令人不安的是,這些應(yīng)用允許用戶使用安全性較低的密碼,且其所有權(quán)和人工智能模型缺乏透明度。這意味著用戶的個(gè)人信息可能隨時(shí)面臨泄露的風(fēng)險(xiǎn),而黑客也可能濫用這些信息進(jìn)行不法活動(dòng)。

前谷歌CEO埃里克?施密特就對(duì)伴侶聊天機(jī)器人發(fā)出警告,他表示:“當(dāng)一個(gè)12歲或13歲的孩子使用這些工具時(shí),他們可能接觸到世界上的善與惡,但他們還沒有能力消化這些內(nèi)容。”

顯然,AI已經(jīng)開始破壞人類社會(huì)的正常秩序了。

AI安全刻不容緩

AI安全問題,正在逐漸成為無法被忽視的關(guān)鍵因素。

在2021年歐盟就正式提出了《人工智能法案》,也是全球首個(gè)AI監(jiān)管法案,在2024年8月1日正式生效。

除了歐盟之外,在2023年11月的AI峰會(huì)上,包括中國、美國、歐盟在內(nèi)的多個(gè)國家和地區(qū)簽署了宣言,同意合作建立AI監(jiān)管方法。各方在AI治理的基本原則上達(dá)成了一定程度上的共識(shí),如支持透明度、負(fù)責(zé)任的AI開發(fā)和使用等。

目前來說,針對(duì)人工智能監(jiān)管方面主要集中在注重安全測(cè)試與評(píng)估、內(nèi)容認(rèn)證與水印標(biāo)記、防止信息濫用、強(qiáng)行關(guān)閉程序、獨(dú)立監(jiān)管機(jī)構(gòu)以及風(fēng)險(xiǎn)識(shí)別與安全保障等六個(gè)方面。

雖然設(shè)定的很好,但是監(jiān)管力度和監(jiān)管區(qū)域始終是無法逾越的問題。就例如,如果來自美國的OpenAI在英國觸犯了AI監(jiān)管法案,那么如何定義和處罰呢?

在商量好一部通行全球的《AI法典》之前,或許科幻作家阿西莫夫在1942年提出的《機(jī)器人三定律‌》,更適合作為AI大模型的底線:

(1)機(jī)器人不得傷害人類,或因不作為而讓人類受到傷害;

(2)機(jī)器人必須服從人類給它的命令,除非這些命令與第一定律相沖突;

(3)機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一定律或第二定律相沖突。

       原文標(biāo)題 : AI聊天機(jī)器人都能教唆人類自殺了?

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)