Esta semana, a OpenAI lançou seus modelos de IA mais recentes, o3 e o4-mini, que podem raciocinar usando fotos enviadas pelos usuários. Na prática, eles cortam, giram e ampliam imagens, mesmo as borradas e distorcidas, e realizam uma análise completa delas. Recursos avançados de análise fazem do ChatGPT um poderoso localizador.

Fonte da imagem: ilgmyzin / unsplash.com

O modelo de raciocínio o3 do OpenAI, conforme determinado pelos usuários da rede social X, provou ser bom em identificar cidades, pontos de referência e até mesmo estabelecimentos de alimentação mostrados em fotografias com base em pistas visuais quase imperceptíveis. Em muitos casos, a IA dispensa a análise da correspondência anterior com o usuário e a geolocalização nos metadados. O ChatGPT exibe cardápios de restaurantes, fotos de bairros, fachadas de prédios e selfies deles mesmos, e supostamente convida os usuários a jogar GeoGuessr, um jogo em que eles adivinham locais a partir de vistas panorâmicas no Google Maps.

Fonte da imagem: x.com/izyuuumi

Há preocupações óbvias com a privacidade: um invasor hipotético poderia fazer uma captura de tela do Instagram✴ Stories de um usuário e revelar informações sobre ele para fins de bullying ou outras atividades ilegais. Na verdade, essa função do ChatGPT funcionava até mesmo antes do lançamento do o3 e do o4-mini, observou o TechCrunch: seus jornalistas tentaram fazer o mesmo truque com uma versão do chatbot baseada no modelo GPT-4o – ele deu basicamente os mesmos resultados e respondeu mais rápido. O modelo o3, sendo mais poderoso, respondia corretamente com mais frequência, mas às vezes falhava.

Fonte da imagem: x.com/swax

A OpenAI não mencionou esse uso em seus relatórios de segurança para os modelos o3 e o4-mini. Mas ela deu um comentário detalhado ao TechCrunch: “O OpenAI o3 e o o4-mini trazem raciocínio visual para o ChatGPT, tornando-o mais útil em áreas como acessibilidade, pesquisa ou resposta a emergências com base em localização. Trabalhamos para treinar nossos modelos para rejeitar solicitações de informações privadas ou sensíveis, adicionamos salvaguardas para impedir que o modelo identifique indivíduos em imagens; monitoramos ativamente e tomamos medidas contra o abuso de nossas políticas de privacidade.”

avalanche

Postagens recentes

O WhatsApp oferecerá resumos de IA de todas as mensagens não lidas.

A versão de pré-visualização mais recente do aplicativo WhatsApp TestFlight para iOS da Apple menciona…

33 minutos atrás

Após oito lançamentos, os engenheiros japoneses descobriram que o foguete H3 apresentava defeitos de projeto.

Em 22 de dezembro de 2025, durante o oitavo lançamento do novo veículo lançador japonês…

33 minutos atrás

A Apple corre o risco de perder o chefe de desenvolvimento da Siri em meio a mudanças na gestão.

Mike Rockwell, chefe do projeto de atualização da Siri, está considerando deixar a Apple ou…

53 minutos atrás

A SpaceX pode comprar a startup de IA Cursor por US$ 60 bilhões – ou limitar-se a uma parceria.

Elon Musk consolidou rapidamente seus ativos nos últimos anos. Embora a Tesla, empresa de capital…

53 minutos atrás

O YouTube começará a remover deepfakes com base em pedidos de celebridades, mas não todos.

O YouTube aprimorou seu recurso de monitoramento de deepfakes — vídeos gerados por IA com…

54 minutos atrás