伊人六月,97自拍超碰,久久精品亚洲7777影院,五月婷婷综合在线观看,日本亚洲欧洲无免费码在线,2019国产精品视频,国产精品第一页在线

首頁(yè)  >  財(cái)經(jīng)  >  財(cái)經(jīng)要聞

2026年,AI將從炒作走向務(wù)實(shí)

2026-01-05 11:21:00

來(lái)源:鞭牛士

圖片來(lái)源:Unsplash

如果說(shuō)2025?年是?AI?接受現(xiàn)實(shí)檢驗(yàn)之年 ,那么?2026?年這項(xiàng)技術(shù)將走向?qū)嵱没I(yè)界焦點(diǎn)已從構(gòu)建日益龐大的語(yǔ)言模型,轉(zhuǎn)向更艱巨的使命——讓?AI?真正可用。

實(shí)踐層面意味著:在適配場(chǎng)景部署輕量模型,將智能嵌入實(shí)體設(shè)備,并設(shè)計(jì)能無(wú)縫融入人類(lèi)工作流的系統(tǒng)。

TechCrunch采訪的專(zhuān)家認(rèn)為,2026?年將是過(guò)渡之年——從粗放式規(guī)模擴(kuò)張轉(zhuǎn)向新架構(gòu)研究,從炫酷演示轉(zhuǎn)向針對(duì)性部署,從空談自主的智能體轉(zhuǎn)向真正賦能人類(lèi)工作的協(xié)作工具。盛宴尚未結(jié)束,但行業(yè)已開(kāi)始回歸理性。

Scaling Law 難以為繼

圖片來(lái)源:

Amazon

2012?年,Alex Krizhevsky、Ilya Sutskever?和?Geoffrey Hinton共同發(fā)表的?ImageNet?論文展示了?AI?系統(tǒng)如何通過(guò)分析數(shù)百萬(wàn)張圖片樣本"學(xué)習(xí)"識(shí)別圖像中的物體。這種方法雖需巨大算力支撐,但?GPU?的出現(xiàn)使其成為可能。由此開(kāi)啟了長(zhǎng)達(dá)十年的硬核?AI?研究浪潮,科學(xué)家們持續(xù)為不同任務(wù)研發(fā)創(chuàng)新架構(gòu)體系。

這一切在2020?年前后達(dá)到高潮,當(dāng)時(shí)?OpenAI?發(fā)布了?GPT-3,它展示了僅僅將模型擴(kuò)大?100?倍就能解鎖編程和推理等能力,而無(wú)需進(jìn)行明確的培訓(xùn)。這標(biāo)志著?AI?進(jìn)入了?AI?智能體平臺(tái)?Workera?創(chuàng)始人兼?CEO Kian Katanforoosh?所稱(chēng)的"規(guī)模化時(shí)代":這個(gè)時(shí)期的核心信念是,更多的算力、更多的數(shù)據(jù)以及更大的?Transformer?模型必將推動(dòng)?AI?實(shí)現(xiàn)下一個(gè)重大突破。

如今,許多研究者認(rèn)為AI?產(chǎn)業(yè)正在接近 Scaling Law 的極限,并將再次進(jìn)入研究探索的新階段。

Meta?前首席?AI?科學(xué)家?Yann LeCun長(zhǎng)期反對(duì)過(guò)度依賴(lài)規(guī)?;?,并強(qiáng)調(diào)開(kāi)發(fā)更優(yōu)架構(gòu)的必要性。Sutskever?在近期采訪中也表示,當(dāng)前模型性能已進(jìn)入平臺(tái)期,預(yù)訓(xùn)練成果趨于停滯,這表明我們需要全新的思路。

“我認(rèn)為在未來(lái)五年內(nèi),我們很可能會(huì)找到一種比?Transformer?架構(gòu)有顯著改進(jìn)的更好的架構(gòu),”Katanforoosh?說(shuō)?!叭绻覀冋也坏剑蔷筒荒苤竿P陀卸啻蟾倪M(jìn)。”

有時(shí)少即是多

大型語(yǔ)言模型在泛化知識(shí)方面表現(xiàn)優(yōu)異,但許多專(zhuān)家認(rèn)為,下一波企業(yè)AI?應(yīng)用的驅(qū)動(dòng)力將是更小巧、更靈活的語(yǔ)言模型,它們能夠針對(duì)特定領(lǐng)域進(jìn)行微調(diào)以提供解決方案。

“經(jīng)過(guò)微調(diào)的?SLMs?將成為大趨勢(shì),并在?2026?年成為成熟?AI?企業(yè)的標(biāo)配工具,因?yàn)槠涑杀竞托阅軆?yōu)勢(shì)將推動(dòng)人們更多地使用它們,而非開(kāi)箱即用的?LLMs,”AT&T的首席數(shù)據(jù)官?Andy Markus?告訴?TechCrunch?!拔覀円呀?jīng)看到企業(yè)越來(lái)越依賴(lài)?SLMs,因?yàn)槿绻⒄{(diào)得當(dāng),它們?cè)卺槍?duì)企業(yè)業(yè)務(wù)應(yīng)用的準(zhǔn)確度上能夠媲美更大的通用模型,并且在成本和速度方面表現(xiàn)出色?!?/p>

我們之前已經(jīng)聽(tīng)過(guò)法國(guó)開(kāi)源AI?初創(chuàng)公司?Mistral?的這一論點(diǎn):該公司聲稱(chēng)其小型模型經(jīng)過(guò)微調(diào)后,在多項(xiàng)基準(zhǔn)測(cè)試中的表現(xiàn)實(shí)際上優(yōu)于大型模型。

“SLM?的精密度、成本效益和適應(yīng)性使它們成為精密度至上的定制應(yīng)用的理想選擇,”位于奧斯汀的企業(yè)人工智能公司?ABBYY?的?AI?戰(zhàn)略師?Jon Knisley?表示。

雖然馬爾庫(kù)斯認(rèn)為?SLM?將在代理時(shí)代發(fā)揮關(guān)鍵作用,但克里斯利指出,小型模型的特性意味著它們更適合部署在本地設(shè)備上,"這一趨勢(shì)因邊緣計(jì)算的進(jìn)步而加速。"

通過(guò)經(jīng)驗(yàn)學(xué)習(xí)

圖片來(lái)源:

World Labs

人類(lèi)不僅僅通過(guò)語(yǔ)言學(xué)習(xí);我們還通過(guò)體驗(yàn)世界的運(yùn)作方式來(lái)獲取知識(shí)。但LLMs?并不真正理解世界;它們僅僅是在預(yù)測(cè)下一個(gè)詞語(yǔ)或概念。正因如此,許多研究者認(rèn)為下一個(gè)重大突破將來(lái)自世界模型:這類(lèi)人工智能系統(tǒng)通過(guò)學(xué)習(xí)物體在三維空間中如何運(yùn)動(dòng)與交互,從而能夠進(jìn)行預(yù)測(cè)并采取行動(dòng)。

越來(lái)越多跡象表明,2026?年將成為世界模型的關(guān)鍵年份。

LeCun?離開(kāi)?Meta?創(chuàng)辦了自己的世界模型實(shí)驗(yàn)室,據(jù)報(bào)道正尋求?50?億美元估值 。谷歌?DeepMind持續(xù)深耕?Genie?項(xiàng)目,并于八月發(fā)布了能夠構(gòu)建實(shí)時(shí)交互通用世界模型的最新系統(tǒng)。隨著?Decart、Odyssey?等初創(chuàng)公司的演示亮相, 李飛飛的世界實(shí)驗(yàn)室也推出了首個(gè)商業(yè)化世界模型?Marble。十月新秀?General Intuition?獲得?1.34?億美元種子輪融資用于訓(xùn)練智能體的空間推理能力,而視頻生成初創(chuàng)公司?Runway?則在十二月發(fā)布了其首款世界模型?GWM-1。?

雖然研究者們看到機(jī)器人與自主技術(shù)的長(zhǎng)遠(yuǎn)潛力,但近期影響很可能率先在電子游戲領(lǐng)域顯現(xiàn)。PitchBook?預(yù)測(cè),游戲領(lǐng)域的世界模型市場(chǎng)規(guī)模將從?2022?至?2025?年間的?12?億美元,增長(zhǎng)至?2030?年的?2760?億美元,這得益于該技術(shù)生成交互式世界和更逼真非玩家角色的能力。

General Intuition?創(chuàng)始人?Pim de Witte?向?TechCrunch?表示,虛擬環(huán)境不僅可能重塑游戲產(chǎn)業(yè),還有望成為下一代基礎(chǔ)模型關(guān)鍵的檢測(cè)場(chǎng)。

智能體時(shí)代

2025?年智能體未能達(dá)到市場(chǎng)預(yù)期,主要原因是難以將其與真實(shí)工作系統(tǒng)對(duì)接。由于缺乏獲取工具與場(chǎng)景信息的途徑,多數(shù)行動(dòng)體被困在試點(diǎn)工作流中。

Anthropic?公司推出的?Model Context Protocol(MCP)被譽(yù)為“AI?領(lǐng)域的?USB-C?接口”,它讓?AI?智能體能夠與數(shù)據(jù)庫(kù)、搜索引擎及?API?等外部工具進(jìn)行交互,這一方案恰好填補(bǔ)了關(guān)鍵的技術(shù)連接層空白,正迅速成為行業(yè)標(biāo)準(zhǔn)。OpenAI?與微軟已公開(kāi)表示支持?MCP,而?Anthropic?近期更是將其捐贈(zèng)給了?Linux?基金會(huì)新成立的智能體人工智能基金會(huì) ,該基金會(huì)旨在推動(dòng)開(kāi)源智能體工具標(biāo)準(zhǔn)化進(jìn)程。與此同時(shí),谷歌也開(kāi)始部署自家的托管式?MCP?服務(wù)器 ,用以將?AI?智能體與其各項(xiàng)產(chǎn)品及服務(wù)相連接。

隨著MCP?降低智能體連接實(shí)際系統(tǒng)的摩擦阻力,2026?年很可能成為智能體工作流從演示階段真正融入日常實(shí)踐的元年。

藍(lán)寶石風(fēng)投合伙人拉吉夫·達(dá)姆指出,這些技術(shù)進(jìn)步將推動(dòng)智能體優(yōu)先解決方案在各行業(yè)承擔(dān)起“記錄系統(tǒng)核心角色”。

達(dá)姆表示:“當(dāng)語(yǔ)音智能體能處理從信息錄入到客戶(hù)溝通等端到端任務(wù)時(shí),它們也將逐漸構(gòu)成底層核心系統(tǒng)。我們將在家庭服務(wù)、房地產(chǎn)科技、醫(yī)療保健等多個(gè)領(lǐng)域見(jiàn)證這一趨勢(shì),同時(shí)滲透到銷(xiāo)售、IT?和支持等橫向職能中。”

這是能力增強(qiáng),而非簡(jiǎn)單替代

圖片來(lái)源:

Unsplash

雖然更智能的工作流可能會(huì)引發(fā)裁員隨之而來(lái)的擔(dān)憂(yōu),但Workera?公司的?Katanforoosh?并不確定這就是未來(lái)的主旋律:"2026?年將是人類(lèi)之年,"他表示。

2024?年,每家?AI?公司都預(yù)測(cè)他們將通過(guò)自動(dòng)化技術(shù)取代人類(lèi)工作。但技術(shù)尚未成熟,在經(jīng)濟(jì)不穩(wěn)定的當(dāng)下,這種論調(diào)并不受歡迎。Katanforoosh?認(rèn)為,明年我們會(huì)意識(shí)到"AI?并未像預(yù)想中那樣自主運(yùn)作",討論重點(diǎn)將更多地轉(zhuǎn)向?AI?如何輔助人類(lèi)工作流程,而非取代人類(lèi)。

"我認(rèn)為很多公司都將開(kāi)始招聘,"他補(bǔ)充道,并指出預(yù)計(jì)人工智能治理、透明度、安全性以及數(shù)據(jù)管理領(lǐng)域會(huì)出現(xiàn)新的職位。"我非??春妹髂晔I(yè)率平均值會(huì)低于4%。"

“人們希望能夠駕馭?API,而不是受制于它,我認(rèn)為?2026?年將是實(shí)現(xiàn)這一目標(biāo)的關(guān)鍵年份,”德威特補(bǔ)充道。

走向?qū)嶓w化

圖片版權(quán):

David Paul Morris/Bloomberg?

專(zhuān)家表示,小型模型、世界模型和邊緣計(jì)算等技術(shù)的進(jìn)步將推動(dòng)機(jī)器學(xué)習(xí)在更多物理場(chǎng)景中落地應(yīng)用。

“隨著機(jī)器人、自動(dòng)駕駛車(chē)輛、無(wú)人機(jī)和可穿戴設(shè)備等新型人工智能設(shè)備開(kāi)始進(jìn)入市場(chǎng),物理人工智能將在?2026?年成為主流?!盇T&T Ventures?負(fù)責(zé)人維克拉姆·塔內(nèi)賈對(duì)?TechCrunch?表示。

雖然自動(dòng)駕駛車(chē)輛和機(jī)器人是物理人工智能的典型應(yīng)用場(chǎng)景,預(yù)計(jì)2026?年將持續(xù)增長(zhǎng),但其所需培訓(xùn)與部署成本依然高昂。相比之下,可穿戴設(shè)備憑借消費(fèi)者接受度成為更具成本效益的切入點(diǎn)。例如雷朋?Meta?智能眼鏡已開(kāi)始配備能回答實(shí)時(shí)視覺(jué)問(wèn)題的助手,而?AI?健康指環(huán)與智能手表等新型設(shè)備正推動(dòng)全天候機(jī)身推斷成為常態(tài)。

Taneja?表示:“連接服務(wù)提供商將致力于優(yōu)化其網(wǎng)絡(luò)基礎(chǔ)設(shè)施以支持這波新設(shè)備浪潮,而那些在提供連接方式上具備靈活性的運(yùn)營(yíng)商將占據(jù)最佳優(yōu)勢(shì)?!保ㄞD(zhuǎn)載自Z Potentials)

免責(zé)聲明:本網(wǎng)對(duì)文中陳述、觀點(diǎn)判斷保持中立,不對(duì)所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請(qǐng)讀者僅作參考,并請(qǐng)自行承擔(dān)全部責(zé)任。 本網(wǎng)站轉(zhuǎn)載圖片、文字之類(lèi)版權(quán)申明,本網(wǎng)站無(wú)法鑒別所上傳圖片或文字的知識(shí)版權(quán),如果侵犯,請(qǐng)及時(shí)通知我們,本網(wǎng)站將在第一時(shí)間及時(shí)刪除。