對于英偉達Grace Hopper以及英偉達Blackwell等前沿平臺,您只能使用開源GPU內(nèi)核模塊。這些平臺不支持專有驅(qū)動程序。
當被問及 Meta 最令人興奮的未來產(chǎn)品時,扎克伯格推薦了一款智能眼鏡,該眼鏡配備了攝像頭、麥克風、揚聲器和全視場 (FOV) 全息顯示屏。
總部于位于得克薩斯州奧斯汀的軟件公司Planview從18個月前起,就開始使用生成式AI提升生產(chǎn)效率。在此期間,他們還嘗試將生成式AI整合進自己的產(chǎn)品當中,構(gòu)建起可供用戶交互的copilot服務(wù),用于支持戰(zhàn)略投資組合與價值流管理。
在2024年這個充滿活力的科技年份,英特爾中國開源技術(shù)委員會迎來了它成立一周年的關(guān)鍵時刻。這一年里,該委員會不僅加深了與中國開源社區(qū)的合作,還通過創(chuàng)新應(yīng)用和戰(zhàn)略規(guī)劃,推動了開源技術(shù)在中國乃至全球的快速發(fā)展。
企業(yè)應(yīng)該知道該怎么做才能確保他們使用的是經(jīng)過適當許可的代碼,如何檢查漏洞,如何保持所有內(nèi)容都已經(jīng)修補并保持最新狀態(tài)。
IBM今天宣布,將擴展其開源量子軟件工程工具包Qiskit,覆蓋整個軟件開發(fā)棧,更好地幫助開發(fā)人員為研究和企業(yè)應(yīng)用的量子處理器構(gòu)建實用的解決方案。
Red Hat近日提出了對生成式AI的看法,概述了一種信念:這個正炙手可熱的技術(shù),其未來將取決于開源軟件以及讓用戶社區(qū)支持它的能力。
Meta發(fā)布開源大模型Llama-3,具有80億和700億參數(shù)版本,性能在推理、數(shù)學、代碼生成等方面有顯著提升。Llama-3采用了分組查詢注意力、掩碼等技術(shù),提高了計算效率。預訓練數(shù)據(jù)達15T tokens,支持多語言。測試顯示Llama-3性能超過多個知名模型。
網(wǎng)絡(luò)威脅變幻莫測,最近備受矚目的開源軟件安全事件(如 log4Shell、Solar Winds、Colors and Fakers 等)及其對全球數(shù)以千計公司造成的災(zāi)難性影響,凸顯了企業(yè)目前在強化數(shù)字環(huán)境方面所面臨的挑戰(zhàn)。
據(jù)悉,Command R+有1040億參數(shù),支持英語、中文、法語、德語等10種語言。最大特色之一是,Command R+對內(nèi)置的RAG(檢索增強生成)進行了全面強化,其性能僅次于GPT-4 tubro,高于市面上多數(shù)開源模型。
阿里巴巴開源了320億參數(shù)的大語言模型Qwen1.5-32B,性能略超Mixtral 8×7B MoE,略低于720億參數(shù)的Qwen-1.5-72B。Qwen1.5-32B具有高性價比,顯存需求減半,適合更廣泛使用。模型在多項評測中表現(xiàn)優(yōu)秀,特別是在推理和數(shù)學方面。支持32K上下文長度,以通義千問的開源協(xié)議發(fā)布,允許商用。
英特爾正努力對外發(fā)布尚在開發(fā)的硬件,同時輔以對開源的高度重視,希望借此將自身與競爭對手區(qū)分開來、吸引更多開發(fā)人員使用其云方案。
馬斯克旗下大模型公司開發(fā)的Grok-1大語言模型已開源,采用Apache2.0協(xié)議。Grok-1是一個混合專家架構(gòu)模型,參數(shù)總數(shù)3140億,每次推理激活860億。雖然在MMLU和GSM8K評測中表現(xiàn)不錯,但與同類模型相比資源消耗大而收益不顯著。開源的僅為推理代碼,訓練基礎(chǔ)設(shè)施和tokenizer的特殊token作用未透露。
馬斯克宣布將開源其公司xAI發(fā)布的生成式AI產(chǎn)品Grok,一款類ChatGPT產(chǎn)品,提供文本、代碼生成等功能,性能超GPT-3.5但弱于GPT-4。Grok-1在多個測試平臺表現(xiàn)優(yōu)異,但仍有局限性,如需內(nèi)容審核,無獨立搜索能力。
DeepSeekVL是一款開源多模態(tài)模型,通過對訓練數(shù)據(jù)、模型架構(gòu)和訓練策略的聯(lián)合拓展,構(gòu)建了7B與1.3B規(guī)模的強大模型。相關(guān)資源可通過論文鏈接、模型下載頁面和GitHub主頁獲取。
李開復旗下 AI 公司零一萬物也宣布開源了其 Yi-9B 模型
AWS近日宣布,計劃通過旗下Amazon Bedrock服務(wù)提供來自知名機器學習初創(chuàng)公司Mistral AI的兩個人工智能模型。