国産精品久久久久久久,国产亚洲精品第一综合麻豆,国产精品国产三级国产av中文,国产性色av高清在线观看,国产精品久久人妻互换毛片

聊天機(jī)器人大行其道,相關(guān)道德風(fēng)險(xiǎn)也越來(lái)越大 焦點(diǎn)資訊

2023-03-27 08:51:28來(lái)源:36kr

除了信息泄露,ChatGPT還存在哪些問(wèn)題?

神譯局是36氪旗下編譯團(tuán)隊(duì),關(guān)注科技、商業(yè)、職場(chǎng)、生活等領(lǐng)域,重點(diǎn)介紹國(guó)外的新技術(shù)、新觀點(diǎn)、新風(fēng)向。

編者按:3 月 24 日,OpenAI 發(fā)布聲明,就 ChatGPT 致用戶(hù)信息泄露一事道歉,有關(guān)此類(lèi)大型語(yǔ)言模型的風(fēng)險(xiǎn)和弊端再次顯露在人們面前。除了隱私泄露的問(wèn)題,多年來(lái),研究人員還一直警告說(shuō),文本生成算法可能會(huì)產(chǎn)生有偏見(jiàn)的和虛假的信息。但科技巨頭們還是急于將其應(yīng)用于產(chǎn)品中。本文來(lái)自編譯,希望對(duì)您有所啟發(fā)。

ILLUSTRATION: JAMES MARSHALL


(相關(guān)資料圖)

去年年底,在 OpenAI 的聊天機(jī)器人 ChatGPT 發(fā)布后的幾周內(nèi),谷歌 AI 首席執(zhí)行官杰夫·迪恩(Jeff Dean)就表示了,擔(dān)心過(guò)快部署對(duì)話式搜索引擎可能會(huì)給 Alphabet 帶來(lái)聲譽(yù)風(fēng)險(xiǎn)。但今年谷歌還是發(fā)布了自己的聊天機(jī)器人 Bard,并在第一次演示中犯了一個(gè)“關(guān)于詹姆斯·韋伯太空望遠(yuǎn)鏡”的事實(shí)錯(cuò)誤。

在同一時(shí)期,微軟將基于 ChatGPT 的技術(shù)整合到了必應(yīng)搜索引擎中。微軟負(fù)責(zé)人工智能的負(fù)責(zé)人莎拉·伯德(Sarah Bird)承認(rèn),雖然該技術(shù)仍然可以“幻化”出不真實(shí)的信息,但它已變得更加可靠了。在接下來(lái)的幾天里,必應(yīng)還聲稱(chēng)跑步是 18 世紀(jì)發(fā)明的,并試圖說(shuō)服一名用戶(hù)今年是 2022 年。

亞歷克斯·漢納(Alex Hanna)在這些事件中看到了一個(gè)熟悉的模式:將人工智能迅速商業(yè)化的經(jīng)濟(jì)激勵(lì),已經(jīng)超過(guò)了對(duì)安全或道德的擔(dān)憂。漢納曾在谷歌的道德人工智能團(tuán)隊(duì)工作,現(xiàn)在是非營(yíng)利組織“分布式人工智能研究中心”(Distributed AI research)的研究主管。他說(shuō),在責(zé)任或安全方面下功夫賺不到多少錢(qián),但對(duì)技術(shù)的過(guò)度炒作卻能帶來(lái)很多好處。

制作大型語(yǔ)言模型的競(jìng)賽(用網(wǎng)絡(luò)上的大量數(shù)據(jù)訓(xùn)練人工智能系統(tǒng)),以及將倫理作為人工智能設(shè)計(jì)過(guò)程核心部分的運(yùn)動(dòng),幾乎是在同一時(shí)間開(kāi)始的。2018 年,谷歌推出了語(yǔ)言模型 BERT,不久之后,Meta、微軟和英偉達(dá)也發(fā)布了基于人工智能的類(lèi)似項(xiàng)目。同樣在 2018 年,谷歌表示要重視人工智能倫理,據(jù)稱(chēng)將限制未來(lái)的項(xiàng)目。自那時(shí)起,研究人員就警告說(shuō),大型語(yǔ)言模型帶有高度的道德風(fēng)險(xiǎn),可能會(huì)輸出有毒和仇恨的言論。此外這些模型也有捏造事實(shí)的傾向。

隨著初創(chuàng)公司和科技巨頭開(kāi)始試圖打造 ChatGPT 的競(jìng)爭(zhēng)對(duì)手,一些業(yè)內(nèi)人士懷疑,ChatGPT 是否已經(jīng)改變了人們的觀念,讓人們已經(jīng)沒(méi)那么在意人工智能道德風(fēng)險(xiǎn)了,轉(zhuǎn)而認(rèn)為可以隨時(shí)部署強(qiáng)大到足以生成逼真文本和圖像的人工智能。

在過(guò)去幾年中,OpenAI 發(fā)布模型的過(guò)程已經(jīng)發(fā)生了變化。高管們表示,由于擔(dān)心濫用問(wèn)題及其對(duì)社會(huì)的影響,文本生成器 GPT-2 于 2019 年在幾個(gè)月內(nèi)分階段發(fā)布(一些人批評(píng)這一策略是一種宣傳噱頭)。2020 年,其更強(qiáng)大的繼任者 GPT-3 的訓(xùn)練過(guò)程被公開(kāi)記錄,但不到兩個(gè)月后,OpenAI 開(kāi)始通過(guò)面向開(kāi)發(fā)人員的 API 將該技術(shù)商業(yè)化。到 2022 年 11 月,ChatGPT 的發(fā)布過(guò)程不包括任何技術(shù)論文或研究出版物,只有一篇博客文章、一個(gè)演示,以及很快隨之而來(lái)的訂閱計(jì)劃。

開(kāi)源人工智能初創(chuàng)公司 Hugging Face 的政策總監(jiān)艾琳·索萊曼(Irene Solaiman)認(rèn)為,外部壓力有助于讓 ChatGPT 等人工智能系統(tǒng)承擔(dān)責(zé)任。她正在與學(xué)術(shù)界和工業(yè)界的人士合作,為非專(zhuān)家提供對(duì)文本和圖像生成器進(jìn)行測(cè)試的方法,以評(píng)估偏見(jiàn)和其他問(wèn)題。索萊曼說(shuō),如果外部人員能夠探測(cè)人工智能系統(tǒng),企業(yè)將不再有借口避免測(cè)試輸出偏差或氣候影響等問(wèn)題。索萊曼此前曾在 OpenAI 工作過(guò),致力于降低系統(tǒng)的“毒性”。

索萊曼說(shuō),每次評(píng)估都只是一個(gè)了解人工智能模型的窗口,而并不代表它每次都一模一樣地執(zhí)行和輸出同樣的信息。但她希望能夠識(shí)別和阻止人工智能造成的傷害,因?yàn)榱钊藫?dān)憂的案例已經(jīng)出現(xiàn),包括游戲《AI Dungeon》的玩家使用 GPT-3 生成描述涉及兒童的性場(chǎng)景的文本。索萊曼說(shuō):“這是一個(gè)極端的例子,我們不能讓這種情況發(fā)生?!?/p>

索萊曼在 Hugging Face 的最新研究發(fā)現(xiàn),大型科技公司對(duì) 2018 年至 2022 年發(fā)布的生成式模型采取了越來(lái)越封閉的方式。Alphabet 的人工智能團(tuán)隊(duì)和 DeepMind 加速了這一趨勢(shì),在 GPT-2 分階段發(fā)布后,人工智能領(lǐng)域的其他公司也更廣泛地加入到了這一趨勢(shì)中。索萊曼說(shuō),那些把自己的突破當(dāng)作商業(yè)機(jī)密來(lái)保護(hù)的公司,也會(huì)讓資源匱乏的被邊緣化的研究人員更難接觸到人工智能的前沿。

隨著越來(lái)越多的資金投入到大型語(yǔ)言模型中,封閉式發(fā)布正在扭轉(zhuǎn)整個(gè)自然語(yǔ)言處理領(lǐng)域歷史上的趨勢(shì)。畢竟研究人員歷來(lái)都會(huì)分享有關(guān)訓(xùn)練數(shù)據(jù)集、參數(shù)權(quán)重和代碼的細(xì)節(jié),以提高結(jié)果的可重復(fù)性。

斯坦福大學(xué)博士亞歷克斯·塔姆金(Alex Tamkin)的工作重點(diǎn)就是大型語(yǔ)言模型,他說(shuō):“我們對(duì)‘?dāng)?shù)據(jù)庫(kù)系統(tǒng)是在什么基礎(chǔ)上訓(xùn)練的,以及它們是如何評(píng)估的’相關(guān)知識(shí)了解越來(lái)越少,尤其是對(duì)于作為產(chǎn)品發(fā)布的最強(qiáng)大的系統(tǒng)?!?/p>

他認(rèn)為,人工智能倫理學(xué)領(lǐng)域的人提高了公眾意識(shí),讓他們意識(shí)到,當(dāng)技術(shù)部署到數(shù)十億人身上時(shí),快速行動(dòng)和打破常規(guī)是危險(xiǎn)的。如果近年來(lái)沒(méi)有這項(xiàng)道德工作,情況可能會(huì)更糟。

2020 年秋天,塔姆金與 OpenAI 的政策總監(jiān)邁爾斯·布倫戴奇(Miles Brundage)共同主持了一場(chǎng)關(guān)于“大型語(yǔ)言模型的社會(huì)影響”的研討會(huì)??鐚W(xué)科小組強(qiáng)調(diào),行業(yè)領(lǐng)導(dǎo)者需要制定道德標(biāo)準(zhǔn),并在部署前進(jìn)行偏見(jiàn)評(píng)估,并避免某些用例。

塔姆金認(rèn)為,外部人工智能審計(jì)服務(wù)需要與基于人工智能的公司一起發(fā)展,因?yàn)閮?nèi)部評(píng)估往往達(dá)不到要求。他認(rèn)為,包括社區(qū)成員和其他利益相關(guān)者在內(nèi)的參與式評(píng)估方法,可以提高對(duì)創(chuàng)建人工智能模型的民主參與。

密歇根大學(xué)人工智能倫理和政策中心的研究主任莫維·??瓶耍∕erve Hickok)表示,試圖讓公司擱置或戳破人工智能炒作,規(guī)范自己,并采用道德原則是不夠的。她說(shuō),保護(hù)人權(quán)意味著從“討論什么是道德的”轉(zhuǎn)向“討論什么是合法的”。

??瓶撕蜐h納都在關(guān)注歐盟今年將敲定的《人工智能法案》(AI Act),看看它如何看待生成文本和圖像的模型。??瓶苏f(shuō),她特別感興趣的是,歐洲立法者如何處理涉及“谷歌、微軟和 OpenAI 等公司創(chuàng)建的模型”的損害責(zé)任。

??瓶苏f(shuō):“有些事情需要強(qiáng)制執(zhí)行,因?yàn)槲覀円淮斡忠淮蔚乜吹?,如果不?qiáng)制執(zhí)行,這些公司就會(huì)繼續(xù)打破常規(guī),繼續(xù)追求利潤(rùn),而不管人們的權(quán)利和社區(qū)的利益?!?/p>

在布魯塞爾討論政策的同時(shí),AI 的相關(guān)風(fēng)險(xiǎn)仍然很高。在 Bard 出現(xiàn)演示錯(cuò)誤的第二天,Alphabet 的股價(jià)下跌了大約 1000 億美元的市值。漢納說(shuō):“這是我第一次看到因?yàn)槿绱舜笠?guī)模語(yǔ)言模型的錯(cuò)誤,而造成的財(cái)富損失。”不過(guò),她并不認(rèn)為這將說(shuō)服該公司放慢其急于讓產(chǎn)品上市的步伐,“我的猜測(cè)是,演示錯(cuò)誤不會(huì)真的成為一個(gè)警示故事?!?/p>

譯者:Jane

關(guān)鍵詞:

責(zé)任編輯:hnmd004