精精国产XXXX视频,亚洲欧美日韩国产高清在线观看,国产精品极品美女自在线,久久人人爽人人爽人人老牛,丰满乱子伦无码专区

當前位置:裝啦啦裝修網(wǎng)裝修資訊行業(yè)動態(tài)

世界熱推薦:可能失控?人工智能語言能力提高引發(fā)擔憂

時間 : 2022-07-28 15:46:49來源 : 參考消息網(wǎng)

據(jù)美聯(lián)社7月17日報道,如果你向最新的人工智能架構提出這樣一個問題:做一臺有知覺的計算機或者一只恐龍甚至松鼠是什么感覺?這些人工智能的表現(xiàn)可能已經相當令人信服。但在處理其他看似直截了當?shù)娜蝿諘r,它們的表現(xiàn)就不是那么好了——有時甚至差勁到了危險的程度。

以生成型已訓練變換模型3(GPT-3)為例,這是一個由微軟公司控制的系統(tǒng),可以根據(jù)從一個龐大的數(shù)字圖書和在線作品數(shù)據(jù)庫里學習到的知識,生成一段段類似人寫出來的文本。GPT-3被認為是最先進的新一代人工智能算法之一,它能夠進行對話,根據(jù)需要生成可讀文本,甚至生成新的圖像和視頻。

除其他本領外,GPT-3可以寫出你想要的絕大多數(shù)文本——例如一封申請動物園管理員工作的求職信,或者一首以火星為背景的莎士比亞風格十四行詩。然而,當美國波莫納學院的加里·史密斯教授就爬樓梯向它提出一個簡單但顯得荒謬的問題時,GPT-3就不知所措了。


【資料圖】

這個人工智能模型回答說:“是的,你可以安全地用手爬樓梯,如果你先把它們洗干凈的話。”

這些強大的、消耗大量能量的人工智能系統(tǒng)在技術上被稱為“大型語言模型”,因為它們已經接受了大量文本和其他媒介的訓練。這些人工智能系統(tǒng)已經被做成客服聊天機器人、谷歌搜索引擎和為你寫完句子的“自動完成”電子郵件功能。但大多數(shù)制造這類人工智能系統(tǒng)的科技公司都對這些系統(tǒng)的內部運作方式諱莫如深,外人很難了解那些可能讓它們變成虛假信息、種族主義和其他危害源頭的缺陷。

人工智能領域初創(chuàng)企業(yè)抱抱臉公司的研發(fā)工程師泰旺·勒斯科說:“它們非常擅長寫文本,已經達到人類的熟練程度。它們不太擅長的是闡述事實。有時候看起來非常有條理,幾乎以假亂真,卻是錯的。”

謹防失控風險

正因如此,由勒斯科等人共同領導的一個人工智能研究團隊近日在法國政府的幫助下啟動了一個新的大型語言模型。該模型據(jù)說是為了解決GPT-3等封閉系統(tǒng)的缺陷。這個團隊叫“大科學”,他們的模型名為大科學大型開放多語言模型。它的主要突破在于可在46種語言下工作,包括阿拉伯語、西班牙語和法語——與大多數(shù)聚焦英語或漢語的系統(tǒng)不同。

并非只有勒斯科的團隊打算破解人工智能語言模型的黑匣子。臉書和Instagram的母公司元宇宙平臺公司也在呼吁采取更開放的方式。該公司正試圖趕上谷歌和美國開放人工智能研究中心所打造的系統(tǒng)。

元宇宙平臺公司人工智能部門總經理若埃勒·皮諾說:“我們已經看過一個又一個消息,說人們正在從事此類工作,但都非常不透明,幾乎看不到內部情況,也無法窺探這些模型是如何工作的。”

斯坦福大學計算機科學副教授、基礎模型研究中心主任珀西·梁(音)說,建立最能言善辯或信息量最大的系統(tǒng)——并從其應用中獲利——所帶來的競爭壓力是大多數(shù)科技公司嚴格把控這些系統(tǒng)并且不在制定相關規(guī)范上展開合作的原因之一。

梁副教授說:“對一些公司來說,這是它們的秘密配方。”但這些公司也常常擔心如果有失控的情況發(fā)生,可能導致有人在使用這些系統(tǒng)時不負責任。隨著人工智能系統(tǒng)編寫健康建議、中學期末論文或政論的能力日益增強,虛假信息可能迅速增加,人們將越來越難以知道這些信息來自人類還是計算機。

識別“有毒言論”

元宇宙平臺公司最近推出了一個名為OPT-175B的新語言模型,該模型使用了可公開獲得的數(shù)據(jù)——從紅迪論壇上的火爆評論到美國專利檔案以及安然公司丑聞中的大量電子郵件。

元宇宙平臺公司說,它開放了數(shù)據(jù)、代碼和研發(fā)日志,因此外部研究人員可以更容易地通過研究現(xiàn)實中的人們是如何寫文章和溝通的來幫助識別和減輕該模型沾染的偏見,糾正其學到的有毒言論。

皮諾說:“這件事很難。我們敞開自己,準備迎接大量的批評。我們知道,這個模型會說一些我們不會感到自豪的事。”

雖然大多數(shù)公司都制定了其內部的人工智能防護措施,但梁副教授說,現(xiàn)在需要的是更廣泛的相關規(guī)范,以指導研究和決策,比如何時將新模型公之于眾。

這些模型需要很高的計算能力,以至于只有大公司和政府才能負擔得起,這可不是什么好消息。例如,“大科學”項目能夠訓練其模型,是因為該項目可以訪問法國強大的超級計算機“讓·扎伊”。

2018年,谷歌推出一種名為BERT的系統(tǒng),使用一種將句子中的詞語進行比對從而預測語義和語境的技術,這讓追求更大、更智能的人工智能語言模型的趨勢取得了重大飛躍,并且這些模型可以通過大量文本進行“預訓練”。但真正給人工智能世界留下深刻印象的是GPT-3。GPT-3是總部設在舊金山的開放人工智能研究中心在2020年發(fā)布的,很快就由微軟獲得了該模型的獨家授權。

GPT-3帶來了創(chuàng)新實驗方面的繁榮,因為通過付費獲得訪問權限的人工智能研究人員把GPT-3當作一個沙盒來測試人工智能的性能——盡管沒有關于其訓練數(shù)據(jù)的重要信息。

糾正模型“偏見”

開放人工智能研究中心在一篇研究論文中廣泛描述了相關訓練來源,并公開報告了它為應對該技術可能被濫用所做的努力。

但“大科學”項目聯(lián)合負責人托馬·沃爾夫說,開放人工智能研究中心沒有提供它如何過濾這些數(shù)據(jù)的細節(jié),也沒有向外部研究人員提供有關處理過的數(shù)據(jù)的訪問權限。

同時擔任抱抱臉公司首席科學官的沃爾夫說:“所以,我們實際上無法分析GPT-3在訓練時接收到的數(shù)據(jù)。最近這波人工智能技術浪潮的核心更多地是聚焦數(shù)據(jù)集而不是模型。最重要的是數(shù)據(jù),而開放人工智能研究中心對其使用的數(shù)據(jù)極其諱莫如深。”

沃爾夫說,開放語言模型所使用的數(shù)據(jù)集有助于人類更好地理解模型的偏見。他說,與只在美國接受英語文本訓練的模型相比,接受阿拉伯語訓練的多語言模型就不太可能對伊斯蘭教發(fā)表攻擊性言論或產生誤解。

谷歌的LaMDA是目前最新的人工智能實驗模型之一。該模型在回答問題時給人留下了如此深刻的印象,以至于一名谷歌工程師說它正在接近于有意識——這一說法導致他上個月被停職。

關鍵詞: 人工智能 語音識別

公司推薦