Meta svela modello IA per trovare oggetti nelle foto senza addestramento

Meta svela modello IA per trovare oggetti nelle foto senza addestramento

Meta punta sulle IA svelando un algoritmo che identifica gli oggetti presenti in una fotografia: è un passo importante verso nuove tecnologie.
Meta svela modello IA per trovare oggetti nelle foto senza addestramento
Meta punta sulle IA svelando un algoritmo che identifica gli oggetti presenti in una fotografia: è un passo importante verso nuove tecnologie.

Agli occhi di Meta l’utilizzo dell’IA generativa per le pubblicità è solo uno dei casi d’uso ottimali dell’intelligenza artificiale. Il team del gigante di Mark Zuckerberg ormai sta cavalcando il trend internazionale del momento per lo sviluppo tecnologico, tanto che ha già rivelato con un paper approfondito un modello IA per rilevare oggetti in immagini e video anche se non facevano parte del set di addestramento. Andiamo alla scoperta di “Segment Anything”!

Meta punta sull’IA con Segment Anything

Questo modello particolare, stando al paper pubblicato dalla società di Menlo Park, riesce a funzionare in tandem con altri modelli ma ha un compito specifico: identificare qualsiasi oggetto presente in un’immagine, consentendo la loro definizione semplicemente cliccando su di essi o, altrimenti, digitando una parola e attendendo che il sistema evidenzi tutti gli elementi corrispondenti.

Secondo gli sviluppatori di Meta, Segment Anything è di natura imperfetto e può essere utilizzato esclusivamente dai tecnici per scopi di ricerca e dell’ampliamento dell’accesso alla tecnologia IA. Il modello potrebbe pertanto perdere dettagli più fini e non è sempre preciso nella rilevazione dei confini degli oggetti stessi. Inoltre, si blocca quando l’elaborazione di un’immagine è particolarmente impegnativa.

Meta

In breve, Segment Anything è un mero strumento da utilizzare per stare al passo con un volume di contenuti in rapida crescita, senza aspettarsi un grado di interazione pari a un chatbot. La descrizione che Meta fornisce è la seguente:

“Introduciamo il progetto Segment Anything (SA): una nuova attività, modello e set di dati per la segmentazione delle immagini. Utilizzando il nostro modello efficiente in un ciclo di raccolta dati, abbiamo creato il più grande set di dati di segmentazione fino ad oggi (di gran lunga), con oltre 1 miliardo di maschere su 11 milioni di immagini con licenza e rispettose della privacy. Il modello è progettato e addestrato per essere tempestivo. Valutiamo le sue capacità in numerose attività e scopriamo che le sue prestazioni sono impressionanti, spesso competitive o addirittura superiori ai precedenti risultati completamente supervisionati. Stiamo rilasciando il Segment Anything Model (SAM) e il set di dati corrispondente (SA-1B) di maschere 1B e immagini 11M qui per promuovere la ricerca sui modelli di base per la visione artificiale.”

Fonte: Meta
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 apr 2023
Link copiato negli appunti