A Meta* anunciou o desenvolvimento de um modelo de inteligência artificial de código aberto capaz de processar seis fluxos de dados: texto, som, imagem estática e dinâmica (vídeo), temperatura, informações de profundidade de cena e informações de movimento.
Fonte da imagem: Meta*
O modelo ImageBind AI é atualmente um projeto de pesquisa sem aplicações práticas ainda, mas este projeto aponta para a promessa de sistemas generativos. Também é importante notar que a Meta* continua teimosamente compartilhando seus desenvolvimentos com o público, enquanto seus concorrentes na escala de OpenAI e Google estão se tornando cada vez mais fechados.
O conceito-chave do estudo é combinar dados de vários tipos em um índice multidimensional. Este é um tipo de desenvolvimento da ideia de IA generativa, que está disponível para o consumidor hoje. Por exemplo, geradores de imagens como DALL-E, Stable Diffusion e Midjourney são treinados na correspondência de texto e imagem, ou seja, dois tipos de dados: uma rede neural procura padrões em dados visuais associados a descrições de imagens. Em última análise, isso permite que os sistemas gerem imagens a partir de descrições arbitrárias. Os geradores de áudio e vídeo funcionam de maneira semelhante.
O projeto ImageBind é uma tentativa de colocar seis tipos de dados em um único espaço ao mesmo tempo: visual, incluindo imagens estáticas e vídeo; térmica, ou seja, informações de sensores infravermelhos; texto; som; dados de profundidade; dados de movimento de uma unidade de medição inercial (IMU) – como os usados em smartphones e relógios inteligentes. Os desenvolvedores da plataforma estão tentando treiná-lo para trabalhar com esses dados da mesma forma que com texto ou imagens. Assim treinado, um futuro sistema de realidade virtual será capaz de gerar ambientes holísticos: por exemplo, se solicitado a simular uma viagem marítima, colocará o usuário em um navio com o som das ondas ao fundo, complementando-o com um deck balançando e brisa do mar.
Daqui para frente, os engenheiros da Meta* prevêem expandir ainda mais os fluxos de dados sensoriais para incluir “toque, fala, olfato e sinais funcionais de ressonância magnética do cérebro”. As máquinas, por sua vez, poderão se autoaprender em tempo real sobre as informações em diversas formas.
* Está incluída na lista de associações públicas e organizações religiosas em relação às quais o tribunal proferiu decisão final de liquidação ou proibição de atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “No combate a extremistas atividade”.
Na noite passada, foi lançado o Telegram 12.4 para Android, um cliente completamente redesenhado com…
A SpaceX e a NASA receberam autorização oficial da Administração Federal de Aviação (FAA) para…
Após uma série de anúncios dos maiores provedores de serviços em nuvem dos EUA sobre…
Os consoles de videogame não ficaram imunes ao impacto do aumento dos preços dos chips…
A Broadcom anunciou o BCM49438 e o Trident X3+ BCM56390. Esses componentes são considerados as…
No início deste ano, foi noticiado que a Trump Mobile, a operadora móvel virtual criada…