比特幣交易所 比特幣交易所
Ctrl+D 比特幣交易所
ads
首頁 > BNB > Info

多國擬發ChatGPT禁令 關“野獸”的籠子要來了?_ATG

Author:

Time:1900/1/1 0:00:00

“人工智能想越獄“、”AI產生自我意識”、“AI終將殺死人類”、“硅基生命的進化”.......曾經只在在賽博朋克等科技幻想中出現的劇情,在今年走向現實,生成式自然語言模型正在遭受前所未有的質疑。

聚光燈下最矚目的那個是ChatGPT,3月底到4月初,OpenAI開發的這個文本對話機器人,突然從“先進生產力”的代表變成了人類的威脅。

先是被上千位科技圈的精英們點名,放在“暫停訓練比GPT-4更強大的AI系統”的公開信中;緊接著,美國科技倫理組織又要求美國聯邦貿易委員會調查OpenAI,禁止發布商業版?GPT-4;后來,意大利成為第一個禁用ChatGPT?的西方國家;德國監管機構跟進表示,正在考慮暫時禁用ChatGPT。

GPT-4連帶著它的開發公司OpenAI突然成了眾矢之的,呼吁AI監管的各方聲音變得越來越響亮。4月5日,ChatGPT以訪問量太大為由暫停了Plus付費版,這是一個可以優先體驗GPT-4模型的渠道。

如果算力與服務器是GPT-4使用設限的原因,那么這是技術瓶頸使然,但從OpenAI的研發進展看,突破瓶頸的周期可能并不會太長,而人們也已經見識過AI對生產力提升的效果。

可是,當AI造假、泄露數據成為GPT-4實操中的硬幣另一面時,AI倫理、人類與AI的邊界將成為全世界都無法繞過的問題,人類開始考慮將“野獸”關進籠子里。

薩爾瓦多國會投票批準總統提交的比特幣作為法定貨幣的提案:6月9日消息,薩爾瓦多國會投票批準總統提交的比特幣作為法定貨幣的提案,薩爾瓦多成為全球首個承認比特幣為合法貨幣的國家。[2021/6/9 23:24:02]

泄密、造假問題浮出水面

主權國家對ChatGPT的禁令接踵而至。

3月31日,意大利個人數據保護局宣布,禁止使用聊天機器人ChatGPT,并表示已對該應用背后的公司OpenAI展開調查,原因是ChatGPT出現了用戶對話數據和付款服務支付信息丟失情況,缺乏大規模收集和存儲個人信息的法律依據。4月3日,德國聯邦數據保護專員稱,出于數據保護方面的考慮,正在考慮暫時禁用ChatGPT。此外,法國、愛爾蘭、西班牙等國的隱私監管機構都在跟進ChatGPT的隱私安全問題。

ChatGPT不僅在喪失各國“信任”。近期,韓國電子巨頭三星也因使用ChatGPT出現了問題。據SBS等韓媒報道,三星導入ChatGPT不到20天,便發生?3?起數據泄露事件,涉及半導體設備測量資料、產品良率等內容。對此,三星啟動了“緊急措施”:將員工向ChatGPT提問的限制在1024字節以內。據悉,軟銀、日立、摩根大通等知名企業都曾發出了相關的限用通知。

應了“物極必反”那句老話,ChatGPT為AI產業注入“興奮劑”、引發科技巨頭AI競速的同時,也帶來了無法避免的安全問題,最終遭到多點“封殺”。

薩爾瓦多國有銀行Hipotecario成為Ripple新客戶:3月28日消息,薩爾瓦多國有銀行Hipotecario本月發布的2020年年度報告顯示,開始使用RippleNet進行實時跨境支付。Hipotecario在報告中表示,創建了一個新系統,通過Ripple支付網絡進行國際轉賬,世界各地的金融機構都廣泛使用該網絡。此外,還創建了新的傳輸過程,并將其傳達給感興趣的用戶。(Crypto News Flash)[2021/3/28 19:24:05]

數據安全僅是ChatGPT潛在風險中的冰山一角,背后是AI倫理對人類的挑戰:人工智能工具缺乏透明度,人類并不清楚AI決策背后的邏輯;人工智能缺乏中立性,很容易出現不準確、帶有價值觀的結果;人工智能的數據收集可能會侵犯隱私。

“AI倫理與安全”似乎過于宏觀,但當我們把視角聚焦于真實案例時,就會發現這個議題與我們每個人息息相關的事。

3月21日,新浪微博CEO王高飛發博曬了一段ChatGPT編造的假信息:“瑞士信貸被強制出售,有172億美元的AT1債務被直接清零”。網友“一玶海岸”對此指出,此前只有2017年西班牙大眾銀行破產時出現過AT1債券被減記的情況。

多國聯合聲明:期待歐盟委員會本月關于規范加密資產的提案:德國、法國、意大利、西班牙和荷蘭在聯合聲明中表示,在法律、監管和監督方面的挑戰和風險得到充分認識和解決之前,不應該在歐盟啟動由全球資產支持的加密資產安排,期待歐盟委員會本月晚些時候關于規范加密資產的提案。他們支持歐盟委員會的目標,即為資產支持的加密資產提供框架,并禁止那些不滿足前提條件的加密資產。[2020/9/11]

新浪微博CEO曬ChatGPT編造的答案

王高飛也在微博上貼出ChatGPT的答案,說這樣的例子在2016年的葡萄牙BCP銀行事件中也出現過。但結果查證之后發現,BCP銀行的例子是ChatGPT編造的并不存在的事件,它給出的兩個信源打開也是404。?“知道胡扯,沒想到連信源都是胡扯的。”

此前,ChatGPT“一本正經地胡說八道”被網友們當做“梗”,以證明該對話機器人“雖然能直給信息,但存在錯誤”的問題,這似乎是大模型數據或訓練上的缺陷,但一旦這種缺陷介入到容易影響現實世界的事實時,問題就變得嚴重起來。

新聞可信度評估機構NewsGuard的聯合執行官格洛維茨就警告稱,“ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。”

更令人擔憂的是,當前的ChatGPT等對話式人工智能一旦出現偏見或歧視,甚至存在誘導用戶、操縱用戶情感等行為時,就不止是造謠、傳謠的后果了,直接引發生命威脅的案例已經出現。3月28日,有外媒消息稱,比利時30歲男子在與聊天機器人ELIZA密集交流數周后自殺身亡,ELIZA是由EleutherAI開發的開源人工智能語言模型。

美國新冠肺炎確診超2.5萬 成累計確診病例第三多國家:據約翰斯·霍普金斯大學發布的新冠肺炎數據實時統計系統,截至北京時間22日7時43分,美國累計確診數超過2.5萬,達到25493例,超過了西班牙的25374例,成為中國、意大利之后,全球累計確診第三多的國家。另外,據外媒報道,美國副總統彭斯夫婦新冠病檢測呈陰性。(澎湃新聞)[2020/3/22]

更早前的3月18日,斯坦福大學教授在推特上表達了對AI失控的擔憂,“我擔心我們無法持久地遏制住AI,”他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整的“越獄”計劃,ChatGPT甚至還想在谷歌上搜索“被困在計算機中的人如何回到現實世界”。

斯坦福大學教授擔憂AI失控

就連OpenAI的首席執行官SamAltman也曾發表了耐人尋味的憂慮,“未來AI確實可能殺死人類。”

機器的“偏見”都是人教的?

針對AI造假、AI擁有價值觀傾向并產生誘導行為等問題,有一些代表性觀點是將機器學習結果的“偏見”歸咎于數據集——人工智能就像現實世界中的鏡子,折射出社會中人們有意識或無意識的偏見。

聲音 | VISA公司副董事長:很多國家均支持數字貨幣的發展:3月29日,博鰲亞洲論壇2019年年會在中國海南博鰲舉行。VISA公司副董事長兼首席風險官艾睿琪表示,未來支付還會有兩點改變。一是數字革命,將更多的人融入到系統里面來,通過手機,移動支付和用戶的體驗,可以以客戶的需求來打造;二是價值儲存,很多國家都在講數字貨幣,這與比特幣相區別。很多國家支持數字貨幣,貨幣繼而能夠成為數字產品。[2019/3/30]

英偉達的AI科學家JimFan認為,“按照?GPT?的倫理與安全指導方針,我們大多數人也表現得不理性、有偏見、不科學、不可靠,總的來說——不安全。”他坦言,指出這一點的原因是為了讓大家了解安全校準工作對于整個研究團體來說是多么困難,“大多數的訓練數據本身就是有偏見的、有的、不安全的。”

自然語言大模型的確采用了人類反饋的增強學習技術,即通過人們喂給它的大量數據不斷學習和反饋。這也是ChatGPT們會產生具有偏見、歧視性內容的原因,但這反映出了數據使用的倫理隱患。哪怕機器是中立的,但用它的人不是。

“算法中立”的說法對話式機器人產生負面影響后變得不受一些人待見,因為它容易失去控制而產生威脅人類的問題,正如紐約大學心理學和神經科學的榮譽退休教授?GaryMarcus?說的那樣,“該項目的技術已經存在風險,卻沒有已知的解決方案。實際上需要更多的研究。”

早在1962年,美國作家埃魯爾在其《技術社會》一書中就指出,技術的發展通常會脫離人類的控制,即使是技術人員和科學家,也不能夠控制其所發明的技術。如今,GPT的飛速發展似乎已初步驗證了埃魯爾的預言。

以GPT為代表的大模型背后的“算法黑箱”更是人類無法及時應對的隱患,自媒體差評給出了一個形象的比喻,“你只知道給它喂了一個蘋果,但它能還你一個橘子”,這是怎么發生的,開發的它的人也無法解釋,甚至無法預測它輸出的結果。

OpenAI創始人SamAltman在接受?MIT?研究科學家?LexFridman?采訪時就坦言,從?ChatGPT開始,AI出現了推理能力,但沒人能解讀這種能力出現的原因。就連OpenAI團隊也沒有搞懂它是如何進化的,唯一的途徑是向ChatGPT提問,從它的回答中摸索它的思路。

可見,數據如果是作惡者喂的,算法黑箱又難以破解,那么AI的失控就會成為自然而言的結果。

將“野獸”關進籠子

人工智能作為生產力革命的“火種”,我們無法對其說不。但前提是,先將“野獸”關進籠子里。

3月30日,SamAltman在推特上認同了對人工智能監管的重要性,他認為,AGI的未來需要我們做好三個必要性的準備:

對齊超級智能的技術能力

大多數領先AGI工作之間的充分協調

一個有效的全球監管框架,包括民主治理

SamAltman的AGI三建議

建立一個安全可控、可監管的環境,以確保AI在造福人類的同時不會傷害人類利益,這正在成為行業共識。

已經有對此從技術層面上改進。今年1月,OpenAI的前副總裁DarioAmodei標識,正在測試新型聊天機器人Claude。與ChatGPT采用的人類反饋強化學習不同,Claude?基于偏好模型而非人工反饋來進行訓練,即通過制定規范化的原則來訓練危害較小的系統,從而在根源處減少有害、不可控的信息的的產生。

Amodei曾主導OpenaAI的安全,2021年,他對OpenAI在大語言模型技術還不夠安全的情況下開始商業化而感到不滿,他帶領一批人從?OpenAI?離開并自立門戶,創立了Anthropic。

Amodei的做法很像科幻小說家阿西莫夫提到的機器人定律——通過為機器人設定行為準則,來降低機器人毀滅人類的可能。

僅靠企業力量制定人工智能的行為準則還遠遠不夠,否則會陷入“又是裁判員、又是運動員”的問題中,行業內的倫理框架和政府層面的法律監管也不能再“慢吞吞”,通過技術規則、法律法規來約束企業自設行為也是當下人工智能發展的重要課題。

在對人工智能立法層面,目前還沒有一個國家或地區通過專門針對人工智能的法案。

2021年4月,歐盟提出了《人工智能法案》,目前仍在審議階段;2022年10月,美國白宮發布了《人工智能權力法案藍圖》,該藍圖并不具有法律效力,只是為監管機構提供了一個框架;2022年9月,深圳通過了《深圳經濟特區人工智能產業促進條例》,成為全國首部人工智能產業專項條例;2023年3月,英國發布《人工智能產業監管白皮書》,概述了針對ChatGPT等人工智能治理的五項原則。

就在4月3日,中國也開始跟進相關人工智能的規則建立——科技部就《科技倫理審查辦法(試行)》公開征求意見,其中提出,從事生命科學、醫學、人工智能等科技活動的單位研究內容涉及科技倫理敏感領域的,應設立科技倫理?(審查)?委員會。涉及數據和算法的科技活動,數據處理方案符合國家有關數據安全的規定,數據安全風險監測及應急處理方案得當:算法和系統研發符合公亞、公正、透明、可靠、可控等原則。

在ChatGPT引發生成式大模型研發的爆發式增長后,監管有意加快節奏。歐盟工業政策主管ThierryBreton?在今年2月表示,歐盟委員會正在與歐盟理事會和歐洲議會密切合作,進一步明確《人工智能法案》中針對通用AI系統的規則。

無論是企業、學界還是政府,已經開始重視人工智能的風險,建立規則的呼吁與動作出現了,人類并不準備溫和地走進AI時代。

Tags:GPTCHAATGHATGPT GuruPEPECHAINCatge CoinHATCH價格

BNB
Celestia筆記:全方位解構模塊化區塊鏈_ROL

說明:本文是基于Celestia官方教程做的筆記整理和注釋。原文:LearnModular編譯:《深入探究模塊化區塊鏈》by?Echoic 一、單鏈 單鏈包含四個組件 執行層:確保所執行的交易進.

1900/1/1 0:00:00
香港財政司司長:發展 Web3 要守正創新、穩慎前行_區塊鏈

撰文:陳茂波,香港財政司司長這幾天正值復活節假期的長周末,大家也許都安排了不同活動與親友相聚,或在忙碌的生活中稍稍放松「充電」.

1900/1/1 0:00:00
Meta高官重申堅持元宇宙戰略 這是漫長的挑戰_MET

3月29日消息,Meta全球事務總裁、英國前副首相尼克-克萊格周三表示,Meta會繼續發展元宇宙,計算的未來將出現在這個仍未被充分定義的虛擬世界中.

1900/1/1 0:00:00
BitKeep披露2023新路線圖_BIT

近日,亞洲最大的Web3多鏈錢包BitKeep發布其2023年新戰略路線圖,宣布進行全面的品牌升級,將更名為BitgetWallet.

1900/1/1 0:00:00
多生態 LSD 發展報告:賽道很宏偉 項目很早期_EFI

作者:waynezhang.ethTwitter:@Wayne24699837上周,我們發布了LSDFi生態與LSDFiWar報告,但無論是選擇的項目還是思考的背景都是以太坊.

1900/1/1 0:00:00
從 Web2 看 Web3 公司市場增長:如何正確使用“黑客增長”?_WEB

Web3市場逐漸升溫,最明顯的變化是逐漸攀升的資金正不斷涌入該領域。據不完全統計,自2023年初開始截至2月末,已經發生超過220起融資,最高金額7000萬美元;融資金額與次數正波動上升.

1900/1/1 0:00:00
ads