[No.L001]
8月8日消息,據(jù)外媒報道,在智能手機領域,檢測目標、分類圖像和識別人臉的應用程序并不新鮮,比如Google Lens和Snapchat等應用程序就很受歡迎。但無處不在并不能替代質量,而最常用的機器學習模型(卷積神經網(wǎng)絡)要么速度較慢,要么不夠準確。
然而,希望就在眼前。谷歌的研究人員已經開發(fā)出一種人工智能(AI)模型選擇方法,以達到創(chuàng)紀錄的速度和精度。
在最新的論文和博客文章中,谷歌團隊描述了新的自動化系統(tǒng)MnasNet,它從候選列表中識別出理想的神經架構,結合強化學習來考慮移動速度限制。在這項研究中,MnasNet在特定的設備上執(zhí)行不同的模型,并測量它們在現(xiàn)實世界中的性能,自動從中選出最好的。
研究人員在博客中寫道:“通過這種方式,我們可以直接衡量在現(xiàn)實生活中可以實現(xiàn)的東西,因為每種移動設備都有自己的軟件和硬件特性,可能需要不同的架構才能在準確性和速度之間取得最佳平衡。”
MnasNet系統(tǒng)由三個部分組成:1)一個循環(huán)神經網(wǎng)絡驅動的控制器,用來學習和采樣模型的體系結構;2)一個構建和訓練模型的訓練器;3)一個由TensorFlow Lite驅動的推理引擎,可以測量模型的速度。
谷歌團隊在ImageNet(斯坦福大學和普林斯頓大學維護的圖像數(shù)據(jù)庫)和COCO對象識別數(shù)據(jù)集的公共對象上測試了其最優(yōu)模型。結果顯示,這些模型比最先進的移動模型MobileNetV2快1.5倍,比神經結構搜索系統(tǒng)NASNet快2.4倍。
與此同時,在COCO上,谷歌的模型在MobileNet上實現(xiàn)了“更高的精度和更高的速度”,其計算成本比SSD300模型低35倍。
研究團隊稱:“我們很高興看到我們的自動化方法可以在多個復雜的移動視覺任務上實現(xiàn)最先進的性能。將來,我們計劃將更多的操作和優(yōu)化納入我們的搜索領域,并將其應用于更多的移動視覺任務,如語義分割。”
這項研究是在“前沿”和“離線”人工智能獲得發(fā)展動力之際進行的,尤其是在移動領域。在今年6月召開的2018年全球開發(fā)者大會上,蘋果推出了改進版ML Core,這是一款面向iOS設備的機器學習框架。
在谷歌2018年I/O開發(fā)者大會上,谷歌發(fā)布了ML Kit,這是個軟件開發(fā)工具包,它包含了許多工具,使得在應用程序中更容易部署定制的TensorFlow Lite模型。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...