谷歌正全力打造具備“世界模型”的全能 AI 助手,通過深度整合各項技術(shù)與產(chǎn)品,旨在重塑搜索體驗,并在 AI 競爭中超越微軟和 OpenAI。
Anthropic 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Jared Kaplan 將于6月5日在 UC Berkeley 的 Zellerbach Hall 出席 TC Sessions: AI,講解混合推理模型與風險治理框架,探討 AI 如何革新人機互動。
2025年1月,DeepSeek 從中國閃亮登場,挑戰(zhàn) OpenAI 及美國巨頭。其通過優(yōu)化 KV 緩存、采用 MoE 策略及強化學(xué)習(xí),提升硬件與能源效率,為大語言模型領(lǐng)域開辟新路徑。
騰訊開源了基于Transformer架構(gòu)的Hunyuan-Large模型,擁有3890億參數(shù),優(yōu)于Meta的LLama3.1 - 405B模型。Hunyuan-Large采用MoE結(jié)構(gòu),高效訓(xùn)練和推理,支持長達256K上下文。使用了KV緩存壓縮技術(shù),減少內(nèi)存占用。訓(xùn)練數(shù)據(jù)包括7萬億token,包括高質(zhì)量合成數(shù)據(jù)。模型在CommonsenseQA、PIQA、WinoGrande等測試中表現(xiàn)優(yōu)異。
球申請生成式AI專利前10位分別是:騰訊、平安保險、百度、中國科學(xué)院、IBM、阿里巴巴、三星電子、Alphabet(谷歌母公司)、字節(jié)跳動和微軟。(排名按照專利數(shù)量)
圖像自監(jiān)督預(yù)訓(xùn)練極大降低了圖像任務(wù)繁重的標注工作,節(jié)省大量人力成本,而transformer技術(shù)在NLP領(lǐng)域的巨大成功也為CV模型效果進一步提升提供了非常大的想象空間。