El último modelo de IA SAM de Meta está listo para revolucionar la detección de imágenes

El último modelo de IA SAM de Meta está listo para revolucionar la detección de imágenes

Meta presenta el modelo de IA de detección de objetos «SAM» que cambiará el juego y un conjunto de datos inigualable

Meta, la empresa matriz de Facebook, ha anunciado su última incursión en el mundo de la inteligencia artificial. El nuevo modelo de IA de Meta, denominado «Segment Anything Model», puede identificar y aislar objetos individuales dentro de una imagen o vídeo con una precisión notable.

Según Meta, el «Segment Anything Model» es algo más que una herramienta para la creación de contenidos y la edición fotográfica; puede transformar potencialmente la forma en que vemos e interactuamos con el mundo que nos rodea. La capacidad de la herramienta para identificar objetos individuales dentro de una imagen abre un sinfín de posibilidades para sectores que van desde la RA (realidad aumentada) hasta la investigación científica.

Además de desvelar su nuevo modelo de IA, Meta también ha puesto a disposición de los usuarios un innovador conjunto de datos de anotaciones de imágenes. Este conjunto de datos, que según Meta es el más completo de su clase, incluye anotaciones para una amplia gama de objetos y escenarios, desde artículos domésticos cotidianos hasta complejas imágenes científicas.

El modelo de IA SAM de Meta puede reconocer objetos en los que no ha sido entrenado

Lo que diferencia a SAM es su capacidad para identificar objetos en los que no ha sido entrenado, lo que le da una ventaja sobre otros modelos de IA del mercado. Los usuarios pueden elegir elementos dentro de un vídeo o una imagen utilizando la interfaz sencilla y fácil de usar de SAM tocándolos o respondiendo a indicaciones de texto.

En una demostración reciente, la nueva herramienta de IA se puso a prueba con una foto que contenía varios gatos. Para comprobar la precisión con la que la herramienta podía identificar objetos, el usuario simplemente escribió la palabra «gato». En cuestión de segundos, la herramienta detectó y dibujó recuadros alrededor de cada uno de los gatos de la foto, demostrando su extraordinaria capacidad para identificar objetos con facilidad.

¿Cómo funciona SAM?

SAM

SAM es un modelo básico que puede realizar un aprendizaje de cero y pocos disparos para nuevos conjuntos de datos y tareas utilizando técnicas de estimulación. El modelo puede devolver una máscara de segmentación válida para cualquier indicación, incluidos puntos de primer plano/fondo, cuadros aproximados, máscaras y texto de forma libre. El modelo debe ejecutarse en tiempo real en una CPU de un navegador web para que los anotadores puedan utilizar SAM de forma interactiva. SAM utiliza un codificador de imágenes, un codificador ligero y un decodificador ligero para predecir máscaras de segmentación en sólo 50 milisegundos dada cualquier indicación en un navegador web.

Qué dice Meta sobre SAM

Para etiquetar fotos, moderar el material prohibido y sugerir publicaciones a la gente en Instagram y Facebook, la empresa ha estado empleando una tecnología similar a SAM. El lanzamiento de SAM ampliará el acceso a dicha tecnología a un público más amplio. El nuevo modelo de IA y el conjunto de datos pueden descargarse del sitio web de la empresa con una licencia no comercial. Los solicitantes de la demo deben dar su consentimiento para utilizar la herramienta únicamente con fines de investigación cuando suban sus imágenes.

Además, el modelo SAM tiene aplicaciones potenciales en la investigación científica. Podría ayudar a los investigadores a identificar y controlar objetos o animales concretos en grabaciones de vídeo de fenómenos naturales que ocurran en el espacio o en la Tierra.

Para saber más sobre las últimas noticias tecnológicas, artículos, guías de solución de problemas y consejos & relacionados con Windows, Android, iOS y macOS, síguenos en Facebook, Instagram, Twitter, YouTube y Pinterest.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *