智通財(cái)經(jīng)APP獲悉,中金公司發(fā)布研報(bào)稱,SAM大模型開源,模型優(yōu)勢(shì)明顯。今年,Meta AI發(fā)布基礎(chǔ)模型Segment Anything
Model(SAM)及其訓(xùn)練數(shù)據(jù)集SA-1B,并在GitHub上開源,推動(dòng)了機(jī)器視覺通用基礎(chǔ)大模型的研究與應(yīng)用。SAM大模型用GPT的方式讓計(jì)算機(jī)具備理解圖像中個(gè)體對(duì)象,對(duì)圖像進(jìn)行觀察、思考和邏輯推理的能力,主要用于對(duì)圖像或視頻中物體的識(shí)別和分割,具備處理大規(guī)模數(shù)據(jù)、準(zhǔn)確率和性能高等優(yōu)點(diǎn)。
中金公司主要觀點(diǎn)如下:
智能制造轉(zhuǎn)型時(shí)代,下游應(yīng)用升級(jí)推動(dòng)軟件算法迭代。隨著我國(guó)制造業(yè)向精細(xì)化、數(shù)字化、智能化方向升級(jí),機(jī)器視覺滲透率逐步提升,視覺系統(tǒng)在精密組裝和精密檢測(cè)中已經(jīng)得到有效驗(yàn)證。但隨著下游消費(fèi)電子、半導(dǎo)體、汽車等行業(yè)對(duì)機(jī)器視覺的技術(shù)和檢測(cè)精度提出更高要求,傳統(tǒng)軟件算法存在數(shù)據(jù)樣本不足、實(shí)時(shí)性較低以及算法泛化不足等問題,導(dǎo)致應(yīng)用場(chǎng)景進(jìn)一步拓展受限,人工智能對(duì)機(jī)器視覺加持的影響作用逐漸加深。
AI大模型快速發(fā)展,打開機(jī)器視覺增量空間。3D視覺技術(shù)和深度學(xué)習(xí)算法快速發(fā)展,利用大量工業(yè)數(shù)據(jù)、AI算法優(yōu)化圖像檢測(cè)模型,提高機(jī)器視覺向許多無(wú)規(guī)則、易混淆、復(fù)雜度高等非標(biāo)準(zhǔn)化場(chǎng)景的擴(kuò)展能力。此次SAM開源,實(shí)現(xiàn)零樣本和少樣本學(xué)習(xí)能力,突破了機(jī)器視覺的底層技術(shù),擴(kuò)展包括物體表面區(qū)域分割、外觀缺陷檢測(cè)等應(yīng)用空間。隨著大模型進(jìn)一步向多模態(tài)發(fā)展,該行認(rèn)為圖像處理門檻將進(jìn)一步降低,提升機(jī)器視覺產(chǎn)品性能優(yōu)勢(shì),助力其滲透到更多應(yīng)用場(chǎng)景之中,為機(jī)器視覺在工業(yè)智能化應(yīng)用帶來(lái)新機(jī)遇。
AI+機(jī)器視覺,智能制造有望多場(chǎng)景落地。1)自動(dòng)駕駛領(lǐng)域,人工智能支持駕駛自動(dòng)化進(jìn)入下半場(chǎng),推動(dòng)自動(dòng)駕駛規(guī)模與視覺方案的發(fā)展;2)人形機(jī)器人領(lǐng)域,AI底層算法運(yùn)用海量數(shù)據(jù)信息訓(xùn)練神經(jīng)網(wǎng)絡(luò),優(yōu)化復(fù)雜數(shù)據(jù)信息的接收與分析,提升信息識(shí)別和定位精準(zhǔn)度;3)工業(yè)自動(dòng)化領(lǐng)域,順應(yīng)工業(yè)4.0的進(jìn)程,在工業(yè)中提升生產(chǎn)效率,減少人工成本,一方面代替勞動(dòng)力完成包括焊接、打包、組裝等繁復(fù)工作,另一方面擴(kuò)大精度較高應(yīng)用領(lǐng)域的滲透程度,帶動(dòng)Al工業(yè)視覺的市場(chǎng)規(guī)模。
風(fēng)險(xiǎn):AI算力需求不及預(yù)期,下游應(yīng)用落地不及預(yù)期,行業(yè)競(jìng)爭(zhēng)加劇。