MADRID, 10 de mayo. (Portal/PE) –
Meta Ha lanzado una nueva herramienta que utiliza inteligencia artificial (IA) para aprender de forma similar a la humana, manejando diferentes tipos de datos simultáneamente, como la profundidad o la temperatura, y sin necesidad de supervisión abierta.
La compañía ha dicho tanto enlace de imagenproyecto que forma parte de la iniciativa para crear sistemas multimodales que puedan aprender de diferentes tipos de datos, se pueden conectar seis tipos de fuentes de entrada.
En efecto, Este modelo aprende un espacio de representación integrado donde confluyen diferentes elementos -texto, imágenes, video y audio- y registra factores, como la profundidad (3D) y la temperatura, de diferentes sensores y unidades de medida inercial, que calcular el movimiento y la posición,
Asimismo, Meta argumentó que ImageBind «también podría proporcionar una forma rica de explorar los recuerdos: busque fotos, videos, archivos de audio o mensajes de texto usando una combinación de texto, sonido e imagen».
Esto es posible porque, a diferencia de los sistemas de IA convencionales, que estudian los vectores individualmente y por modalidad a partir de estos datos, la herramienta Meta crea un «espacio de incorporación conjunto para múltiples modos» sin necesidad de entrenarlo con los datos. cualquier combinación de estas fuentes (es decir, solo video o solo audio, por ejemplo).
La compañía tecnológica cree que este factor la diferencia de otras IA, ya que su herramienta trata de aprender de ella espacio unidimensional «para múltiples modos» o contextos; Algunas capacidades que mejorarán a medida que aproveche las características visuales de DINov2.
Esta solución, por otro lado, puede interpretar el contenido de una manera más holística, permitiendo que las diferentes modalidades se comuniquen entre sí y encuentren conexiones sin tener que analizarlas al mismo tiempo. Es decir, puedes arreglar correlaciones naturales entre sonido y texto sin aprenderlos al mismo tiempo.
Como resultado, otros modelos de aprendizaje pueden comprender las nuevas modalidades de ImageBind sin necesidad de un aprendizaje intensivo en recursos debido a su sólido comportamiento de escalado.
Finalmente, aunque en su investigación actual ha explorado seis modalidades, Meta cree que introducir una nueva versión -como el tacto, el habla o el olfato- le permitirá crear modelos de IA centrados en el ser humano.