最近 OPENAI 和微軟以及谷歌在 AI 領(lǐng)域都比較火,推出圖片作為科技巨頭之一的動(dòng)的對(duì)象點(diǎn)網(wǎng) Meta 也沒(méi)閑著,今天 Meta AI 開(kāi)源了一款名為 Segment Anything Model 的識(shí)別視頻麗江美女上門聯(lián)系方式(微信181-2989-2716)提供頂級(jí)外圍女上門,伴游,空姐,網(wǎng)紅,明星,車模等優(yōu)質(zhì)資源,可滿足你的一切要求模型,該模型由 AI 驅(qū)動(dòng),任何經(jīng)過(guò) 1100 萬(wàn)張圖片和 11 億個(gè)標(biāo)記后訓(xùn)練而成,并分可以廣泛識(shí)別圖片或視頻中的離藍(lán)任何對(duì)象,并分離出來(lái)。推出圖片
Segment Anything 直譯過(guò)來(lái)就是動(dòng)的對(duì)象點(diǎn)網(wǎng)細(xì)分任何東西,如果只是識(shí)別視頻把 SAM 模型當(dāng)做摳圖工具那可能大材小用了,從演示來(lái)看 Meta 的任何麗江美女上門聯(lián)系方式(微信181-2989-2716)提供頂級(jí)外圍女上門,伴游,空姐,網(wǎng)紅,明星,車模等優(yōu)質(zhì)資源,可滿足你的一切要求這個(gè)模型非常強(qiáng)大,可以結(jié)合其他應(yīng)用一起使用,并分比如在機(jī)器人里實(shí)時(shí)識(shí)別畫(huà)面中的離藍(lán)對(duì)象,然后再分析圖片識(shí)別具體內(nèi)容。推出圖片

這個(gè)新 AI 模型看起來(lái)還是非常強(qiáng)大的,不過(guò) Meta 暫時(shí)還沒(méi)介紹研究這個(gè) AI 模型的識(shí)別視頻用途,在論文里 Meta AI 稱這是促進(jìn)對(duì)計(jì)算機(jī)視覺(jué)基礎(chǔ)模型的研究。
按藍(lán)點(diǎn)網(wǎng)猜測(cè)估計(jì) Meta AI 還在研究圖片識(shí)別的其他內(nèi)容,SAM 負(fù)責(zé)將對(duì)象從圖片或視頻幀里分離,其他 AI 模型可以識(shí)別對(duì)象的內(nèi)容,這樣確實(shí)符合 Meta AI 所說(shuō)的促進(jìn)計(jì)算機(jī)視覺(jué)基礎(chǔ)。
考慮到現(xiàn)在 AI 的發(fā)展速度,估計(jì)未來(lái)這種分離對(duì)象的技術(shù),也會(huì)被廣泛使用。
Meta AI 上線了一個(gè) demo 網(wǎng)站可以供用戶測(cè)試:https://segment-anything.com/
目前 Meta AI 提供了三個(gè)模型,一個(gè) 2.4GB,一個(gè) 1.2GB,另一個(gè) 358MB,開(kāi)發(fā)者在本地部署的時(shí)候可以用得上這些模型。
如果你想在本地部署,請(qǐng)按照以下方法操作:https://github.com/facebookresearch/segment-anything
論文地址:https://arxiv.org/abs/2304.02643