原文作者:Tanya Malhotra
來源:Marktechpost
近年來,大型語言模型(Large Language Models,LLMs)在全世界受到了廣泛贊賞,并在自然語言處理領域備受歡迎。這使我們能夠使用比以往任何時候都更好、更清晰的語言理解來描述智能系統(Intelligent Systems)。
諸如 GPT-3、T5、PaLM 等 LLMs 的性能有了顯著提高,并且這些模型將繼續存在,因為它們可以完成從通過學習閱讀來模仿人類,到生成文本和總結長段落內容的所有工作。而根據一些深入的研究,如果 LLM 的規模很大,那么它的表現就會很好。通過在大量數據上訓練這些模型,它們可以理解人類語言的語法、語義和語用學。
Bitfinex公布儲備證明:135個冷、熱錢包地址總計持有超20萬枚BTC和超122萬枚ETH:11月12日消息,Bitfinex首席技術官Paolo Ardoino 在GitHub上公開了Bitfinex的儲備證明,他列出了總計135個冷錢包和熱錢包地址。為了免去查看地址信息的麻煩,Paolo Ardoino 重點說明了一些重要儲備資產,比如204338.17967717枚比特幣、1225600枚以太坊。據悉Paolo Ardoino 曾在2018年6月開放了一個名為“Antani”的開源庫,其中提供了償付能力證明、托管和鏈下委托投票證明,但并未引起重視。[2022/11/12 12:55:49]
由 OpenAI 開發的流行的大型語言模型 ChatGPT 之所以發展得如此之快,正是因為采用了人類反饋強化學習(RLHF)等先進技術。通過 RLHF,機器學習算法結合并使用人工輸入提高了模型的性能。它針對預訓練的 LLM 進行了微調,用于開發聊天機器人、虛擬助手等任務。
ULTA提交包括NFT在內的元宇宙商標申請:金色財經報道,據商標律師Mike Kondoudis在社交媒體上透露,美國化妝品零售商猶他美容 (Ulta Beauty)提交了一份NFT在內的元宇宙商標申請,計劃包括:NFT、虛擬商品的商店、虛擬現實游戲服務、虛擬化妝和美容院服務、由虛擬人物和/或為虛擬人物銷售的虛擬化妝品以及更多。[2022/10/26 11:45:25]
此外,ChatGPT 等 LLMs 所基于的預訓練基礎模型也得到了明顯的改進。這主要是由于三個方面的變化:
1.實踐證明,模型的擴展性(Scaling)對提高其性能很有幫助。以 Pathways 語言模型(Pathways Language Model,PaLM)為例,該模型通過擴展小樣本學習(few-shot learning)大大影響了其性能,小樣本學習可以減少根據具體應用調整模型所需的特定任務訓練實例的數量。
StarkNet主網升級至0.10.1版本,引入并行交易排序器提高交易處理速度:10月26日消息,StarkNet主網已升級至0.10.1版本,此前StarkNet于10月19日在Goerli測試網發布Alpha0.10.1版本,引入并行交易排序器,以提高交易處理速度。[2022/10/26 16:39:17]
通過使用 Pathways 語言模型在 6144 TPU v4 芯片上擴展和訓練 5400 億個參數,PaLM 展示了重復擴展的好處,其表現超過了各種傳統模型,并顯示出很大的進步。因此,深度和寬度的擴展都是提高基礎模型性能的一個重要因素。
可口可樂與數字時裝店DressX達成合作,將推出限量版Dreamworld元宇宙服裝:8月11日消息,可口可樂與數字時裝店DressX達成合作,該合作伙伴關系是創作部門Dreamland的一部分。同時推出新限量版Dreamworld口味將于8月15日在美發售。
此外,可口可樂還宣布與DressX達成合作打造數字空間夢境,為粉絲們創造受限量版Dreamworld啟發的服裝,供他們下載并在元宇宙中穿著。(福布斯)[2022/8/11 12:17:45]
2.另一個變化是在預訓練時增加標記數量的過程。像 Chinchilla 這樣的模型(開源語言模型)已經證明,通過增加預訓練數據,大型語言模型的表現會更好。
Chinchilla 是一個計算最優模型。在相同的計算預算下,在 70B 參數和比 Gopher 模型多四倍的數據上進行訓練,Chinchilla 的表現一致優于 Gopher,它甚至比 GPT-3、Jurassic-1 和 Megatron-Turing NLG 等 LLMs 效果更好。這清楚地描述了對于每一個計算最優的訓練,標記的數量應該相應地縮放——即模型大小的兩倍,因此訓練標記的數量應該是兩倍。
3.第三個變化是使用干凈和多樣化的預訓練數據。Galactica 的性能證明了這一點,它是一種存儲、混合和推理科學知識的大型語言模型。經過幾篇科學論文文本的訓練,Galactica 的表現優于 GPT-3、Chinchilla 等模型。另一個大型語言模型 BioMedLM 是一種針對生物醫學文本的特定領域 LLM,在針對特定領域數據進行訓練時,它表現出了巨大的性能提升。它清楚地表明,在特定領域的數據上進行的預訓練勝過在通用數據上的訓練。
LLMs 的成功無疑歸功于多種因素的混合,包括 RLHF 的使用和預訓練基礎模型的發展。這三個變化極大地影響了 LLMs 的性能。此外,GLaM(通用語言模型)通過使用稀疏激活的混合專家架構(Mixture-of-Experts architecture),以更少的訓練成本擴展模型的容量,從而顯著提高了性能。因此,這些變化為更高級的語言模型開辟了道路,而這些模型將繼續讓我們的生活變得輕松。
DeFi之道
個人專欄
閱讀更多
金色財經 善歐巴
金色早8點
Odaily星球日報
歐科云鏈
Arcane Labs
深潮TechFlow
MarsBit
BTCStudy
澎湃新聞
文/Miles Deutscher,加密貨幣分析師;譯/金色財經xiaozou要在加密貨幣領域收獲最大收益,你需要將自己置于最強大的敘事中。本文所盤點的趨勢中有些仍然有可能產生50倍的機會.
1900/1/1 0:00:002 月 22 日晚間,百度發布 2022 年 Q4 及全年未經審計的財務報告。2022 年全年,百度實現營收 1236.75 億元,歸屬百度的凈利潤(非 GAAP)206.8 億元,同比增長 1.
1900/1/1 0:00:002 月 16 號,ZK 系L2擴容解決方案 zkSync 宣布了 2.0 版本的上線.
1900/1/1 0:00:00撰文:Bitwise 研究員 Ryan Rasmussen 來源:Bankless 美國金融顧問的資本分配決定對加密貨幣這樣的新興資產類別至關重要.
1900/1/1 0:00:00作者:吳文謙 吳文謙,現為 TKX 資本的合規合伙人,香港特別行政區高等法院執業律師。他曾領導火幣和 OKX 加密交易所法律和合規職能,并為累計籌集超過 2 億美元的加密項目和加密基金提供咨詢.
1900/1/1 0:00:00文/William M. Peaster,Bankless作者;譯/金色財經xiaozou就區塊鏈而言,我們認為以太坊的初始階段是單體架構.
1900/1/1 0:00:00