讀創/深圳商報記者 塗競玉
2月25日,上海人工智慧實驗室聯合商湯科技、香港中文大學、上海交通大學共同釋出通用視覺開源平臺OpenGVLab,面向學術界和產業界開放其超高效預訓練模型,和千萬級精標註、十萬級標籤量的公開資料集,為全球開發者提升各類下游視覺任務模型訓練提供重要支援。
同時,OpenGVLab還同步開放了業內首個針對通用視覺模型的評測基準,便於開發者對不同通用視覺模型的效能進行橫向評估和持續調優。目前OpenGVLab開源平臺(https://opengvlab.shlab.org.cn)已正式上線,供各界研究人員訪問和使用,後續專案還將開通線上推理功能,供所有對人工智慧視覺技術感興趣的社會人士自由體驗。
“開源是一項意義非凡的工作,人工智慧技術的迅速發展離不開全球研究人員十餘年來的開源共建”,上海人工智慧實驗室負責人表示,“希望透過釋出OpenGVLab開源平臺,幫助業界更好地探索和應用通用視覺AI技術,促進體系化解決AI發展中資料、泛化、認知和安全等諸多瓶頸問題,為推動人工智慧學術、產業發展做出貢獻。”
如今雖然人工智慧技術快速發展,但很多AI模型還只能完成單一任務,比如識別單一物體,或識別風格較為統一的照片。如果要對多種型別、風格進行識別,則需要具備足夠的通用性和泛化能力。去年11月,上海人工智慧實驗室聯合商湯科技、香港中文大學、上海交通大學釋出的通用視覺技術體系“書生”,很好地解決了這一問題。
通用視覺開源平臺OpenGVLab正是基於通用視覺技術體系“書生”(INTERN)打造的。依託“書生”在通用視覺技術上的強勁支撐,OpenGVLab將幫助開發者顯著降低通用視覺模型的開發門檻,用更低成本快速開發用於成百上千種視覺任務、視覺場景的演算法模型,高效實現對長尾場景的覆蓋,推動AI技術的規模化應用。
據瞭解,伴隨OpenGVLab的釋出,上海人工智慧實驗室還開放了業內首個針對通用視覺模型的評測基準,彌補通用視覺模型評測領域的空白。
審讀:喻方華