郭明錤:蘋果若不加大AI投資跟競爭對手差距可能會擴大
6月10日,跟蹤蘋果產(chǎn)業(yè)鏈多年的天風(fēng)國際證券分析師郭明錤發(fā)文稱,對投資人來說,WWDC 2025最重要的是蘋果的AI,其他的更新如界面設(shè)計都是次要。雖然AI競爭像一場馬拉松,而非單一事件決定輸贏,但WWDC 2025應(yīng)該讓大部分的投資人期待落空(特別是跟Google I/O比較下)。不過,WWDC后蘋果股價波動不大,原因就如其分析,市場對蘋果的AI預(yù)期很低,另外也是有部分投資人始終相信“蘋果終究會在AI領(lǐng)域占有一席之地”。AI產(chǎn)業(yè)進展正加速中,意味著蘋果如果不加大投資,跟競爭對手的差距可能會擴大。這或許對蘋果的硬體在短期內(nèi)影響有限,但這是蘋果在次世代消費電子產(chǎn)品 (如AR眼鏡)的挑戰(zhàn)。
美團發(fā)布首款A(yù)I編程智能體
6月10日,美團正式發(fā)布首款A(yù)I Coding Agent(AI編程智能體)產(chǎn)品 NoCode。這款對話式AI編程工具能夠通過多輪自然語言交互,自動完成編碼任務(wù)并完成部署,適用于數(shù)據(jù)分析、產(chǎn)品原型設(shè)計、運營工具開發(fā)及門戶網(wǎng)站生成等場景。
英偉達計劃在英國布里斯托爾打造人工智能實驗室
據(jù)新華社消息,英偉達總裁兼首席執(zhí)行官黃仁勛當(dāng)?shù)貢r間6月9日在倫敦科技周開幕式上表示,英偉達計劃在英國布里斯托爾打造人工智能實驗室。英國首相斯塔默說,此舉將有助于推動英國西南地區(qū)的就業(yè)和發(fā)展。
斯塔默還表示,將投資10億英鎊(約合97.38億人民幣),將英國的算力提升20倍,大幅提升人工智能基礎(chǔ)設(shè)施,推動英國從人工智能技術(shù)接受者轉(zhuǎn)變?yōu)橹圃煺?,確保人工智能大幅改善公共服務(wù)。
中文在線推出逍遙海外作者平臺
6月10日,中文在線宣布推出面向國際創(chuàng)作者的AI寫作平臺——逍遙海外作者平臺(XIAOYAO)。平臺依托中文在線自研的“逍遙大模型”,聚焦英文小說賽道,覆蓋創(chuàng)作全過程,包括構(gòu)思生成、語言潤色、邏輯修復(fù)、角色管理、情節(jié)續(xù)寫等多個維度。
阿里通義實驗室開源檢索增強預(yù)訓(xùn)練框架MaskSearch
6月10日,據(jù)通義大模型微信公眾號消息,阿里巴巴通義實驗室發(fā)布并開源了MaskSearch預(yù)訓(xùn)練框架,讓AI學(xué)會“主動搜索+多步推理”,從而更準確、更智能地回答復(fù)雜問題。
理想汽車新設(shè)兩大機器人部門
6月10日,據(jù)晚點Auto消息,理想汽車近期發(fā)布內(nèi)部公告,宣布戰(zhàn)略委員會決定成立“空間機器人”和“穿戴機器人”兩個新的二級部門。這兩個部門均隸屬于由高級副總裁范皓宇帶領(lǐng)的產(chǎn)品部。其中,空間機器人部門負責(zé)人為帥一帆,他此前擔(dān)任理想汽車產(chǎn)品規(guī)劃負責(zé)人、高級產(chǎn)品總監(jiān);穿戴機器人部門負責(zé)人為張文博,他和帥一帆同為理想早期員工,此前曾擔(dān)任理想汽車軟件產(chǎn)品經(jīng)理。此次調(diào)整后,兩人均直接向范皓宇匯報。
眾擎機器人公布人形機器人直膝行走專利
天眼查財產(chǎn)線索信息顯示,6月10日,深圳市眾擎機器人科技有限公司申請的“一種人形機器人直膝行走的控制方法、裝置和存儲介質(zhì)”專利公布。
摘要顯示,本申請公開了一種人形機器人直膝行走的控制方法、裝置和存儲介質(zhì),用于提升人形機器人在不同場景直膝行走的表現(xiàn)。包括采集人體步態(tài)數(shù)據(jù);將人體步態(tài)數(shù)據(jù)進行動作重定向處理;選取目標人形機器人在直膝行走訓(xùn)練中的物理參數(shù),并為每個物理參數(shù)設(shè)定先驗分布;為目標人形機器人進行實景測試運動,采集物理參數(shù)對應(yīng)的運行數(shù)據(jù);將采集到的運行數(shù)據(jù)與物理參數(shù)對應(yīng)的先驗分布相結(jié)合,將更新后的后驗分布反饋到模仿學(xué)習(xí)階段,優(yōu)化控制策略等。
小紅書首次開源文本大模型dots.llm1
6月10日,據(jù)小紅書技術(shù)團隊消息,小紅書hi lab(Humane Intelligence Lab,人文智能實驗室)團隊首次開源文本大模型 dots.llm1。據(jù)介紹,dots.llm1是一個大規(guī)模的Mixture of Experts(MoE)語言模型,在總共1420億參數(shù)中激活140億參數(shù),dots.llm1在訓(xùn)練11.2T token高質(zhì)量數(shù)據(jù)后,達到了可與Qwen2.5-72B相媲美的性能。
還沒有評論,來說兩句吧...