Meta继续发力!去年爆火的分割万物的SegmentAnything出续作了
作者: NLP前沿 来源: NLP前沿
开头简单回顾一下Segment Anything,可以在一张图片上勾勒出任何你想要的东西!
SAM2 建立在 SAM1 的基础上,增加了时空分割 -> 跨视频跟踪对象。有点难懂,看视频!
SAM2 以 Apache-2.0开源,还附带了一个额外的数据集,其中包含 51k 个高度多样化的视频,视频帧上带有mask。数据集地址:https://ai.meta.com/datasets/segment-anything-video/
SAM 2 不仅在视频跟踪方面表现最佳。它在图像上也更好。SAM 2 在速度和准确性方面均优于 JointFormer 和 Cute-base+ 等半监督方法。在图像方面,它的表现优于SAM 1。
项目地址:https://github.com/facebookresearch/segment-anything-2
官方博客地址:https://ai.meta.com/blog/segment-anything-2/
PS:给公众号添加【星标⭐️】不迷路!您的点赞、在看、关注 是我坚持的最大动力!
欢迎多多关注公众号「NLP前沿」,加入交流群,交个朋友吧,一起学习,一起进步!
最新文章推荐阅读
更多AI工具,参考Github-AiBard123,国内AiBard123