La nueva herramienta de IA de Meta que emula los sentidos humanos

Esta nueva tecnología permitirá, por ejemplo, conectar los objetos de una fotografía con su sonido.

Meta, la empresa matriz de Facebook, Instagram y WhatsApp, presentó este martes una nueva herramienta de inteligencia artificial (IA) que es capaz de relacionar siete fuentes de datos sensoriales: imágenes, video, audio, texto, profundidad, temperatura y movimiento.

Esta nueva tecnología, llamada ImageBind, podrá analizar información de diferentes recursos de forma simultánea, algo que la compañía describe como un “entendimiento holístico” similar a las capacidades humanas.
Los equipos dotados con este tipo de IA podrán “unir” datos sensoriales que les permitirá, por ejemplo, conectar los objetos de una fotografía con su sonido, su forma en tres dimensiones o su movimiento, o incluso crear imágenes basadas en ruidos. Según Meta, esta herramienta podrá introducir nuevas modalidades de datos sensoriales en el futuro, como el tacto, el discurso, el olor y las imágenes por resonancia magnética.

ImageBind. Se presentó junto con el proyecto metaverso de la compañía, que tiene como objetivo crear mundos virtuales y experiencias inmersivas en línea. Meta cree que, a medida que otras tecnologías de IA avancen, podrán abrir las puertas de la investigación y la experimentación en este campo. “Cuando los humanos absorben información del mundo, usamos múltiples sentidos de manera innata, como ver una calle concurrida y escuchar los sonidos de los motores de los automóviles. Hoy presentamos un enfoque que lleva a las máquinas un paso más cerca de la capacidad de los humanos para aprender de forma simultánea, holística y directa de muchas formas diferentes de información”, explicó Meta en un comunicado.  El CEO de Meta, Mark Zuckerberg, se refirió a esta nueva herramienta en su perfil de Facebook y aseguró que: “Hoy abrimos ImageBind, un nuevo modelo de IA que combina diferentes sentidos como lo hace la gente. Entiende imágenes, video, audio, profundidad, movimiento térmico y espacial. Estoy deseando ver lo que todos construyen con él” Este es el segundo lanzamiento de una herramienta de IA de código abierto para investigadores que hace Meta en los últimos meses. La primera, llamada LLaMa (Large Language Model Meta AI), permite entrenar y mejorar modelos de procesamiento del lenguaje natural. Aunque Meta ha estado activo en el desarrollo de IA durante años, ha sido una de los últimas empresas tecnológicas en lanzar aplicaciones con potencial comercial, como los chatbots de sus rivales. Esta nueva tecnología presentada por Meta ha generado gran interés entre los investigadores de todo el mundo, quienes están entusiasmados por su potencial para analizar grandes cantidades de datos y proporcionar información detallada sobre los objetos y las situaciones. La tecnología de IA ha experimentado un rápido avance en los últimos años, lo que ha llevado a la creación de aplicaciones de vanguardia que se utilizan en una amplia variedad de industrias, como la automotriz, la medicina, la publicidad, la educación y el periodismo. La capacidad de las máquinas para procesar grandes cantidades de información y analizarla para obtener datos detallados sobre objetos, situaciones y entornos ha llevado a una mayor eficiencia en las operaciones empresariales, lo que ha mejorado la productividad y la reducción de los costos.

ver en sitio completo: La nueva herramienta de IA de Meta que emula los sentidos humanos