去年美國馬薩諸塞州大學阿默斯特分校的研究人員曾表示,訓練一臺大型AI機器產(chǎn)生的碳,平均是一個人終其一生駕駛汽車制造的排放量5倍。除此之外,還存在很多其他方面的能源消耗。因此AI未來如何實現(xiàn)可持續(xù)發(fā)展,仍是亟需解決的問題。
近期,在麻省理工一篇最新論文中顯示,其提出了一種比以前更環(huán)保的方式來訓練和運行AI模型的系統(tǒng)。論文中顯示,該方案被稱為是種“一勞永逸”的網(wǎng)絡,它訓練一個大型模型,該模型由許多不同大小的預訓練子模型組成,這些子模型可以在不需要再訓練的情況下針對一系列平臺進行定制。每個子模型都可以在推理時獨立運行而無需重新訓練,系統(tǒng)根據(jù)與目標硬件的功率和速度限制相關的精度和延遲權衡來確定最 佳子模型。
內(nèi)-容-來-自;中_國_碳_0排放¥交-易=網(wǎng) t an pa i fa ng . c om
“漸進收縮”算法有效地訓練大模型,同時支持所有子模型。先訓練大模型,再利用大模型訓練較小的子模型,使其同時學習,最后所有子模型都得到了支持。
本/文-內(nèi)/容/來/自:中-國-碳-排-放-網(wǎng)-tan pai fang . com
ALt4518534302221312麻省理工學院提出更環(huán)保的AI訓練方式,可降低碳排放 內(nèi).容.來.自:中`國`碳#排*放*交*易^網(wǎng) t a np ai f an g.com
在實驗中,研究人員發(fā)現(xiàn),用他們的方法訓練一個包含超過10個五分之一建筑環(huán)境的計算機視覺模型,最終比花幾個小時訓練每個子網(wǎng)絡要有效得多。此外,它并沒有影響模型的準確性或效率——當使用通用基準(ImageNet)進行測試時,該模型在移動設備上達到了理想準確性,在推理方面比領 先的分類系統(tǒng)快1.5到2.6倍。 內(nèi)/容/來/自:中-國-碳-排-放*交…易-網(wǎng)-tan pai fang . com
也許更令人印象深刻的是,研究人員聲稱,與當今流行的模型搜索技術相比,計算機視覺模型在訓練時需要大約1/1300的碳排放量。IBM研究員、麻省理工學院沃森人工智能實驗室成員談到這項研究時表示:“如果人工智能要繼續(xù)快速發(fā)展,我們就需要減少其對環(huán)境的影響。” 禸*嫆唻@洎:狆國湠棑倣茭昜蛧 τāńpāīfāńɡ.cōm
【版權聲明】本網(wǎng)為公益類網(wǎng)站,本網(wǎng)站刊載的所有內(nèi)容,均已署名來源和作者,僅供訪問者個人學習、研究或欣賞之用,如有侵權請權利人予以告知,本站將立即做刪除處理(QQ:51999076)。