Resultados de julho de 2024: a caravana está em movimento

Fonte: geração de IA baseada no modelo SDXL 1.0

⇡#Os advogados ainda estão tentando

A IA deveria ser regulamentada a nível legislativo? Aparentemente, sim (embora os libertários, por exemplo, tenham claramente a sua própria opinião sobre este assunto) – mas eis como exactamente; isto é, dentro de quais limites e com que rigor? A UE, como já informamos mais de uma vez, já tomou medidas bastante sérias, incluindo a criação de um órgão especial para supervisionar o desenvolvimento seguro da inteligência artificial. Como resultado, os principais desenvolvedores de modelos de IA começaram a se abster de treinar suas criações com dados de usuários da União Europeia, e a Apple, por exemplo, pretende bloquear completamente uma série de seus produtos de IA (Apple Intelligence, iPhone Mirroring e SharePlay). no território da velha Europa.

Este último, nomeadamente, irritou a vice-presidente da Comissão Europeia, Margrethe Vestager, que disse que a empresa de Cupertino tinha feito uma “declaração surpreendentemente direta de que está 100% consciente da sua relutância em competir de forma justa onde já demarcou uma área”. Vale a pena notar, para ser justo, que a Lei Europeia dos Mercados Digitais (DMA) implica multas por volume de negócios para jogadores apanhados em comportamento anticompetitivo – até 10% da receita anual, que no caso da Apple pode exceder 32 mil milhões de dólares. Na verdade, há uma razão para jogar pelo seguro e não introduzir um produto num mercado tão eficazmente regulamentado que seja potencialmente vulnerável a acusações de comportamento anticoncorrencial – vulnerável, mesmo porque o Yabloko obviamente não permitirá qualquer alternativa externa de IA na sua plataforma .

«O que você tem aí? Informação? Dar!” (fonte: geração de IA baseada no modelo SDXL 1.0)

⇡#«A informação deve ser gratuita!” © Microsoft (e mais)

De um representante de uma empresa que dá tanta atenção à segurança da propriedade intelectual, seria difícil esperar as palavras que o chefe da IA ​​da Microsoft, Mustafa Suleyman, disse em entrevista à CNBC: “No que diz respeito ao conteúdo que é já disponível publicamente na Internet, desde a década de 90, desenvolveu-se um contrato social relativo ao seu uso justo. Qualquer um pode copiá-lo, transformá-lo, criar algo próprio a partir dele; se você quiser, não exige pagamento para uso (é freeware). Sim, um caso especial são as plataformas que declaram explicitamente: “Não rastreie meu conteúdo para qualquer outro propósito que não seja indexá-lo para que outras pessoas possam encontrá-lo”. Esta é uma “área cinzenta” e, na minha opinião, tais questões serão resolvidas em tribunal.”

Sem esperar, porém, por qualquer tribunal, a Cloudflare, conhecida provedora de serviços em nuvem por fornecer DNS e proteção contra ataques DDoS, já protegeu proativamente seus clientes de crawler bots (crawlers), na ausência de sanção direta e explícita de detentores de direitos autorais coletando dados de sites, que podem ser – e muito provavelmente são – propriedade intelectual de alguém, mesmo sendo de domínio público. Um novo meio de combater fraudes de informação para clientes – gratuitamente; Além disso, a Cloudflare, com base em mensagens de clientes proativos, cria uma “lista negra” especial, a partir da qual os bots – incluindo aqueles que ignoram entradas proibitivas em arquivos robots.txt e/ou tentam imitar o comportamento de uma pessoa sentada na frente de um Tela do PC com navegador aberto, — o acesso às páginas protegidas pela empresa será bloqueado permanentemente.

Ao nível dos governos de cada país, também não existe a atitude mais favorável em relação à recolha de informações sobre a sua população por parte dos criadores de IA para fins de lucro subsequente. O Brasil, por exemplo, no início de julho proibiu a Meta* de treinar modelos generativos nos dados pessoais de seus cidadãos, citando “o risco iminente de danos graves e irreparáveis ​​ou difíceis de reparar aos direitos fundamentais dos titulares dos dados afetados”. A empresa, é claro, respondeu dizendo que tal proibição “representa um retrocesso na inovação, na competição em inteligência artificial e cria mais atrasos em levar os benefícios da inteligência artificial ao povo do Brasil” (este é um dos maiores mercados para a ideia de Zuckerberg com o número de usuários ativos apenas no Facebook✴ é de cerca de 102 milhões, com uma população total do país de 203 milhões de pessoas, em 2022).

O Google também não tem medo de colocar as mãos em algo que é ruim: seu agente de IA Gemini foi flagrado em meados de julho escaneando arquivos PDF de usuários de armazenamento do Google Drive – sem, é claro, obter consentimento prévio e explícito. A rigor, a história aí é bastante confusa e é provável que o assunto esteja no sistema não muito bem pensado de configurações de privacidade no painel de controle do Google Drive, por causa do qual o sistema tira uma conclusão favorável para si mesmo sobre o a prontidão do usuário para fornecer-lhe acesso aos dados cobiçados. Agora, quando vários desenvolvedores de modelos generativos, incluindo Apple, Anthropic, Nvidia e Salesforce, seguidos por Runway, foram simplesmente pegos usando vídeos do YouTube (e outros) para treinar suas IAs de vídeo, a questão é diferente. Em qualquer caso, à medida que a IA continua a desenvolver-se e o valor da informação necessária para treinar modelos ainda mais avançados aumenta, a importância de legalizar estritamente os dados recolhidos só aumentará.

Os investigadores que trabalham no domínio da IA ​​são menos confiáveis ​​do que os cientistas do clima: isto é um fracasso, colegas! (fonte: Centro de Políticas Públicas Annenberg)

⇡#Quem são os juízes?

Como o público percebe os magos do fluxo digital e do big data – em particular, aqueles envolvidos no desenvolvimento da inteligência artificial? Pode parecer a alguns que a atitude em relação a eles é uma mistura de entusiástica incompreensão com o mais profundo respeito; algo parecido com a forma como os físicos eram tratados na década de 1960 (“Algo que os físicos são tidos em alta estima, algo que os letristas estão no rebanho…”). Mas não: uma pesquisa realizada pelo Annenberg Public Policy Center da Universidade da Pensilvânia mostra que a credibilidade pública de tais cientistas (definida como a totalidade das percepções sobre sua competência, quão confiáveis ​​eles são e sua disposição potencial para compartilhar valores internos ​do entrevistado) são ainda inferiores aos dos climatologistas, cujo campo de atividade, nos tempos modernos, é objetivamente difícil: El Niño, o ano do Sol ativo, etc. de critérios de percepção qualitativa (são confiáveis, prudentes, se são capazes de superar os seus próprios preconceitos, corrigir os seus próprios erros; finalmente, se as suas actividades beneficiam pessoas como o entrevistado e o seu país como um todo), durante o ano passado, inquérito os participantes claramente esfriaram acima de tudo em relação aos especialistas em IA.

Não, a decepção com os intelectuais como classe também está crescendo gradualmente: se em 2003, 77% dos entrevistados concordavam total ou parcialmente que aqueles que se autodenominam cientistas têm obviamente conhecimento nas áreas de conhecimento escolhidas, então em 2024 esse número era de apenas 70%. . Mas este ano apenas 49% dos participantes no inquérito estão confiantes na competência daqueles que trabalham com IA; apenas 28% acreditam que as declarações dos especialistas em IA são geralmente credíveis (contra 54% para os cientistas climáticos e 59% para os cientistas em geral!), e apenas 21% estão dispostos a concordar com a tese “Os criadores de IA são capazes de superar as suas próprias preconceitos humanos e políticos.” Bem, se um leão é reconhecido pelas suas garras, então os criadores e treinadores de modelos generativos são reconhecidos pelos resultados das atividades destes últimos, que na verdade muitas vezes sofrem de alucinações, ou de filtragem excessivamente rigorosa de “indesejáveis” (seja lá o que isso signifique). conteúdo, etc. Há algo em que trabalhar, colegas!

A frequência de uso de palavras nas duas primeiras linhas dos gráficos em artigos científicos foi claramente influenciada pelo surgimento do ChatGPT na Web; resultado final – exemplos de palavras relacionadas a outros eventos globais significativos (fonte: University of Tübingen/Northwestern University)

⇡#Diferenças estilísticas

«Posso adivinhar se este texto foi gerado pelo ChatGPT ou por um bot inteligente semelhante em um parágrafo”, é como se pode resumir os resultados obtidos por pesquisadores da Universidade Northwestern, nos Estados Unidos, e da Universidade de Tübingen, na Alemanha. Prestando atenção em como, durante a recente pandemia, a frequência de uso de certas palavras na Internet disparou drasticamente – na verdade “pandemia”, “vírus”, “vacinação”, etc. por modelos generativos de aprendizado de máquina (com algum trecho agora chamados de “inteligência artificial”, embora tenham, talvez, ainda menos habilidades cognitivas do que um papagaio treinado para gritar “Piastras!”), algumas palavras são significativamente mais frequentes do que em mensagens criadas por pessoas? Acontece que eles estavam namorando.

Como base para o estudo, os pesquisadores pegaram 14 milhões de resumos de artigos científicos do conhecido portal PubMed, publicados entre 2010 e 2024, a fim de cobrir tanto o período imediato pré-pandemia quanto a era do hype global da IA. O objetivo da pesquisa foram palavras que, a partir de 2023, demonstrassem um aumento acentuado na frequência de uso: não alguns termos específicos aplicados como “generativo” ou “multimodal”, mas as palavras mais comuns usadas na vida cotidiana, pouco antes do hype em torno da IA, eles eram usados ​​​​com menos frequência por um motivo ou outro.

O exemplo mais marcante desse tipo de descoberta é a palavra “investigar”, a terceira pessoa do presente do verbo “escavar” – “cavar, escavar, realizar pesquisas”, mais frequentemente usado em textos científicos no sentido de “aprofunda”: ​​“o cientista se aprofunda em um tema específico” – “o cientista se aprofunda em uma questão específica”. Assim, em 2024, esta palavra aparece em resumos de artigos no PubMed 25 vezes mais do que a média até o outono de 2022. As palavras “showcasing”, “sublinhados”, “potencial”, “descobertas”, “crucial” e uma série de outras provavelmente bem conhecidas comportam-se de forma semelhante, embora com uma amplitude menos impressionante, que sem dúvida ultrapassa os limites do desvio estatisticamente permitido para todos que passaram tempo suficiente em diálogos em inglês com ChatGPT e bots de IA semelhantes.

É claro que qualquer idioma, especialmente o inglês usado em todo o mundo, é um organismo vivo e as mudanças na frequência de uso de palavras nele não deveriam depender diretamente de inundar a Internet com textos sobre bots inteligentes (e/ou gerados por bots inteligentes). eles mesmos). No entanto, para a era anterior ao outono de 2022, tais picos estatisticamente significativos no conjunto de dados em consideração e em intervalos de tempo tão curtos foram registados apenas para palavras associadas a convulsões verdadeiramente universais: “ebola” em 2015, “zika” em 2017- m, “coronavírus”, “lockdown” e “pandemia” no período 2020-2022. Após a introdução do ChatGPT em ampla circulação, os resumos de artigos científicos foram imediatamente inundados com toda uma galáxia de palavras não diretamente relacionadas entre si, não apenas substantivos, mas também verbos, adjetivos e advérbios. Termos como “transversalmente”, “adicionalmente”, “abrangente”, “crucial”, “melhorar”, “exibido”, “insights”, “notavelmente”, “particularmente”, “dentro”, embora pareçam muito para um falante nativo pomposo e científico, usado com muito menos frequência por cientistas antes de começarem a envolver bots inteligentes na escrita de seus trabalhos.

Como resultado, resumem os pesquisadores, se você se deparar com um artigo com frases como “Uma compreensão abrangente da intrincada interação entre […] e […] é fundamental para estratégias terapêuticas eficazes” (e tal entre novas publicações só no PubMed já é cerca de 10%), fique tranquilo: grandes modelos de linguagem, se não fizeram todo o trabalho para os autores, pelo menos os ajudaram muito na redação do texto final. Isto em si não é um crime, claro, mas dada a tendência da IA ​​moderna para alucinações, tais materiais (especialmente aqueles relacionados com a área médica) devem ser tratados com maior cautela.

Participação do capital das empresas do setor de TI desde a classificação S&P 500 até a capitalização total de todos os participantes deste índice (fonte: LSEG Datastream)

⇡#Bolha ou não bolha

Ao longo do mês, os analistas de ações, principalmente americanos, admiraram as vertiginosas taxas de crescimento das ações de empresas relacionadas à IA ou expressaram temores: se o notório “crash das pontocom” do passado e do presente se repetiria agora na aplicação para este segmento do mercado de TI há séculos? No início do mês, especialistas da Reuters chamaram a atenção para o fato de que a participação das empresas de alta tecnologia no índice S&P 500 está se aproximando do marco psicologicamente importante de 35%, no qual ocorreu o rápido colapso da referida bolha em 2000. Agora, porém, o crescimento desta quota é muito mais prolongado ao longo do tempo do que era no final da década de 1990, o que dá alguma confiança num comportamento muito mais calmo do mercado, mesmo que realmente comece uma reversão corretiva a partir dos patamares alcançados agora.

Ao mesmo tempo, os próprios líderes da febre da IA ​​(os especialistas usam esta expressão exacta – “febre da IA”), nomeadamente NIDIA, Microsoft, Meta* e vários outros, alertam antecipadamente sobre o risco de apostar em grandes modelos de linguagem – caso a situação na bolsa de valores ainda fique fora de controle devido às expectativas superaquecidas das partes interessadas. Além disso, estes avisos não são declarações complacentes e sem resposta, mas entradas muito específicas nas secções “Factores de Risco” das demonstrações financeiras que estas empresas enviam regularmente à Comissão de Valores Mobiliários dos EUA. O procedimento para tal “autodenúncia” faz todo o sentido jurídico, pois permite prevenir possíveis ações judiciais futuras por parte dos acionistas ou reduzir significativamente potenciais danos deles. Em particular, entre os factores de risco para a IA que são hoje relevantes estão a sua utilização para criar desinformação, o seu possível impacto negativo nos direitos humanos, na privacidade, no emprego, etc.

No entanto, no início de julho, mês da publicação de relatórios trimestrais regulares, muitos pilares da indústria global de TI mostraram orgulhosamente aos acionistas resultados muito invejáveis, obtidos logo após a mania da IA. Assim, no final do segundo trimestre, a Samsung reportou um aumento de 15 vezes nos lucros (até 7,5 mil milhões de dólares, principalmente devido ao aumento dos preços dos chips DRAM e NAND, provocado, por sua vez, pelo aumento da procura de IA servidores). No mesmo período, a ASML disse que os pedidos de seus equipamentos para fabricação de chips cresceram 24%, enquanto a TSMC viu a receita trimestral aumentar 32,8%, também graças ao boom da IA. Um porta-voz da NVIDIA afirmou sem rodeios que “cada dólar que um provedor de nuvem investe em aceleradores [daquela marca] para computação de IA. – Ed.], retornará cinco dólares em quatro anos.” Na verdade, a Alphabet, empresa controladora do Google, gerou sozinha US$ 85 bilhões em receitas no segundo trimestre de 2024 apenas com seu mecanismo de busca e IA.

Por outras palavras, o negócio das pás – para fazer analogias com a Corrida do Ouro na Califórnia – está a prosperar independentemente de os mineiros usarem essas pás para extrair ouro ou atirarem inutilmente resíduos de rocha de um lugar para outro. Neste sentido, surge a questão: é, em princípio, um negócio lucrativo desenvolver e treinar modelos generativos? Mais precisamente, será que o fornecimento subsequente de tais modelos para uso comercial compensa os enormes custos envolvidos? David Cahn, analista da Sequoia Capital, é extremamente cético a esse respeito: em sua opinião, as empresas que dependem da IA ​​como base de seus negócios precisam ganhar cerca de US$ 600 bilhões por ano (isto é o planeta inteiro) apenas para compensar os custos da infraestrutura correspondente, incluindo a aquisição de hardware e o pagamento da energia elétrica por ela consumida. Por outras palavras, para obterem lucro, terão de, de alguma forma, recolher somas ainda maiores dos clientes – o que significa que os próprios clientes ainda têm de, segundo o analista, “inventar aplicações de IA que tragam dinheiro real”.

Vídeo de 5 segundos obtido em klingai.com baseado na dica “gatinho fofo consertando um laptop sob um letreiro de néon” (fonte: geração de IA baseada no modelo Kling)

⇡#Evolução Paralela

O desejo dos Estados Unidos de limitar o desenvolvimento da China na indústria das TI em geral e no domínio da IA ​​em particular pode provavelmente ser justificado do ponto de vista geopolítico. Mas como afecta directamente os interesses económicos de muitas entidades económicas, incluindo o “porto de origem” da maioria das entidades americanas, é pouco provável que o objectivo declarado seja alcançado. Em vez disso, tal atividade estimulará o desenvolvimento de modelos linguísticos generativos (e não apenas) da China continental ao longo de um caminho especial, diferente daquele trilhado pela OpenAI, Google e muitos outros, e não é de todo um facto que este caminho será obviamente um perdedor. No início de Julho, a Assembleia Geral da ONU, composta por 193 membros, já tinha adoptado por unanimidade uma resolução preparada pela RPC destinada a reforçar a cooperação internacional no domínio do desenvolvimento do potencial da inteligência artificial – e os acontecimentos que se seguiram naquele mês apenas confirmaram o firme compromisso de muitos intervenientes económicos contribuam para o progresso generalizado da IA, incluindo no Império Celestial.

Assim, os aceleradores gráficos de servidor NVIDIA sancionados continuam a ser fornecidos à China, como evidenciado pelo The Wall Street Journal, embora através de uma verdadeira “ferrovia subterrânea” formada por revendedores privados e mensageiros contrabandistas. Além disso, eles podem ser usados ​​não apenas como parte de configurações padrão de 8 ou 16 adaptadores, mas também em clusters de altíssimo desempenho que combinam o poder computacional de até 10 mil aceleradores – estes são os desenvolvidos pela empresa chinesa Tópicos de Moore. Como resultado, de acordo com o Financial Times, a NVIDIA, até o final deste ano, pode ganhar até US$ 12 bilhões com o fornecimento à China apenas de aceleradores H20 especialmente adaptados (com capacidades truncadas). E é difícil imaginar quanto extra ele obterá com as “importações paralelas”.

Além disso, a China tornou-se líder em patentes na área de redes neurais generativas nos últimos dez anos, ultrapassando seis vezes os Estados Unidos neste indicador. A maior contribuição para a tesouraria de mais de 38,2 mil aplicações chinesas de 2014 a 2023 foi feita pela Tencent (2,0 mil), Ping An Insurance (1,6 mil) e Baidu (1,2 mil); em quarto lugar está a Academia Chinesa de Ciências com 607 inscrições (a IBM, para efeito de comparação, tem 601). Até a Intel, através do seu fundo de capital de risco, está a financiar activamente startups chinesas de IA, apesar da preocupação aberta das autoridades dos EUA sobre isto. E, a propósito, essas startups às vezes se destacam muito, como a empresa Kuaishou, cujo gerador de vídeo de IA online chamado Kling já é usado ativamente para criar vídeos curtos baseados em instruções de texto, inclusive fora da RPC, mostrando resultados que estão prontos para competir com criações do modelo Sora desenvolvido pela OpenAI.

Isso sem mencionar o fato de que os modelos de IA de “espinha dorsal” do mesmo OpenAI continuam disponíveis para clientes da China nas nuvens – em particular, no Microsoft Azure – de forma totalmente gratuita, independentemente de quaisquer sanções. Acontece que os servidores da empresa americana estão localizados fora da China continental, e os clientes locais que treinam modelos OpenAI para suas necessidades obtêm acesso a eles por meio da empresa local 21Vianet, uma joint venture com a Microsoft, uma espécie de “VPN para IA em nuvem”. O que você pode fazer, capitalismo!

É claro que nem tudo está indo bem para os desenvolvedores da RPC, que estão involuntariamente isolados da “grande indústria de TI”: por exemplo, se você acredita nas declarações de fontes taiwanesas, que, por razões óbvias, estão bem familiarizadas com o situação na indústria de TI da China continental (representantes de uma grande montadora ODM Inventec, em particular), o rendimento de aceleradores de IA de classe de servidor adequados em empresas nacionais na China atualmente não excede 20%. Isto não é surpreendente, dados os equipamentos em que e sob quais restrições eles devem ser produzidos. No entanto, o problema começou – antes, não se falava em desenvolver os próprios chips da China para cálculos de IA.

A cara dela quando ela sonhou em jogar Zelda em um novo jogo para a Nintendo, mas descobriu que lá não contratam IA (fonte: geração de IA baseada no modelo Kling)

⇡#Este não é o momento de descansar sobre os louros generativos

«A que ponto chegou o progresso: o trabalho físico desapareceu e o trabalho mental será substituído por um processo mecânico”, cantaram certa vez numa minissérie de ficção científica soviética sobre robôs. No entanto, agora, quando os robôs autónomos naturais estão prestes a aparecer graças aos avanços, incluindo a IA generativa, literalmente todos os dias fica cada vez mais claro: eles não conseguirão substituir o trabalho mental humano. Mais precisamente, isto: a IA já está resolvendo uma série de problemas com bastante sucesso e, quanto mais avançarmos, mais amplo esse círculo se tornará. Mas isso não significa de forma alguma que uma pessoa neste contexto será capaz de relaxar e suspender completamente a atividade mental (bem, a menos que seja reduzida ao nível mínimo necessário para uma visualização incansável de minisséries).

No entanto, um especialista tão importante no mundo do aprendizado de máquina como Andrew Ng (sobrenome pronunciado como nasal [ŋ] em inglês), fundador do Google Brain e professor da Universidade de Stanford, está confiante de que a IA não tornará as pessoas desnecessárias em quase qualquer trabalho – no entanto, aqueles que dominam com confiança esta nova tecnologia certamente ocuparão o lugar daqueles que a consideram além de suas capacidades. Ele também disse que muitas grandes empresas de TI exageram o perigo representado pela IA pela suposta razão de que quanto menos desenvolvedores independentes desenvolverem modelos generativos de código aberto, mais fácil será para esses grandes players concentrarem os desenvolvimentos relevantes em seus próprios países sem medo. da competição da comunidade de entusiastas. A propósito, o sistema de teste Dioptra, desenvolvido nos EUA, projetado para avaliar até que ponto os ataques aos sistemas de IA (incluindo aqueles que visam “envenenar” os dados utilizados para o seu treinamento) reduzem o desempenho e a confiabilidade dos modelos generativos, é uma ferramenta web modular é de código aberto.

Mas a Nintendo japonesa tomou uma decisão fundamental de não utilizar IA generativa nos seus desenvolvimentos, nem agora nem no futuro – embora muitos criadores de jogos, pelo contrário, depositem esperanças consideráveis ​​em “personagens com alma” e “histórias auto-contadas”. A base para a posição escolhida pela empresa não foi tanto o subdesenvolvimento comparativo dos atuais grandes modelos de linguagem, mas os problemas que esta tecnologia tem com os direitos de propriedade intelectual – lembramos os muitos escândalos com coleta ilegal de informações por bots para treinamento de novas IA na Internet, por exemplo.

Minha pessoa conhece uma pessoa que conhece uma pessoa – ela entrará em contato com seu bot (fonte: geração de IA baseada no modelo SDXL 1.0)

⇡#Adicionando insulto à injúria

A essência da expressão inglesa incluída no subtítulo é transmitida de forma bastante próxima pela expressão russa “derramar sal na ferida”. E tem a relação mais direta com a IA: não só os modelos generativos continuam a alucinar em vão, impedindo os utilizadores de confiar calmamente nos resultados das suas atividades, mas mesmo os programadores biológicos mais naturais acrescentam vulnerabilidades aos serviços relacionados com a inteligência artificial. Assim, em julho, soube-se que o aplicativo ChatGPT para macOS até muito recentemente salvava a correspondência do proprietário do dispositivo com o bot na forma de texto simples e não criptografado – e fora da seção protegida especialmente designada pela Apple para dados do usuário. Claro que a vulnerabilidade identificada foi rapidamente corrigida, mas um fato interessante chama a atenção: para instalar o cliente macOS ChatGPT, é necessário baixá-lo diretamente do site da OpenAI, ou seja, a verificação interna da Apple para tais erros (para a qual todos os aplicativos distribuídos por meio do App Loja, por exemplo, está sujeita a ) ele não passou. Isto sublinha mais uma vez até que ponto o próprio conceito de “confidencialidade de dados” na Internet, incluindo aqueles gerados por grandes modelos de linguagem, é efémero.

Hackers maliciosos, é claro, geralmente não contam com tais erros por parte dos programadores e eles próprios procuram ativamente obter as informações que lhes interessam, inclusive usando os (in)bons e velhos métodos de engenharia social – como a doninha, por exemplo, que em no final de 2023. conseguiu obter acesso aos sistemas internos de mensagens da OpenAI. Se você acredita nas fontes do The New York Times, que relataram esse hack apenas em julho, o invasor não foi capaz de “invadir os sistemas onde seus produtos são criados e as informações sobre eles estão contidas”, mas agora é possível de forma independente verificar esta afirmação?

Uma pessoa com implante Synchron escolhe uma das frases que lhe são oferecidas por um chatbot inteligente (fonte: Synchron)

⇡#«Nunca há muito ferro

O grande modelo de linguagem Grok 3, que a startup de IA de Elon Musk sob o nome simples xAI deve começar a treinar em agosto, exigirá nada menos que cem mil aceleradores de servidor NVIDIA H100. É claro que seria possível sobreviver com menos deles, mas somente em uma escala tão gigantesca um cluster tornará possível concretizar a ambiciosa intenção do proprietário da empresa: “treinar a IA mais poderosa do mundo em todos os indicadores até dezembro deste ano.” Para efeito de comparação, o modelo GPT-4 já foi treinado em 40 mil aceleradores A100, já desatualizados para os padrões atuais, e também por vários meses. Isto significa que há uma grande probabilidade de que as capacidades do Grok 3, incluindo as multimodais, excedam as conquistas da versão atual do ChatGPT. Considerando a atitude fortemente negativa de Musk em relação à censura, só podemos adivinhar o grau de liberdade que o próximo modelo de linguagem xAI proporcionará aos utilizadores.

Outro exemplo de importante plataforma de hardware para a execução de um modelo generativo é a interface cérebro-computador criada pela empresa americana Synchron e destinada a ampliar as capacidades de pacientes paralisados ​​no ChatGPT. O implante em si é uma grade de eletrodos implantados por via endovascular em vasos sanguíneos na superfície do córtex motor do cérebro. Sua tarefa é registrar a atividade dos neurônios durante as tentativas de movimento do paciente. A informação recebida é então transmitida para um computador que, após calibração e configuração, traduz os sinais recebidos, por exemplo, movendo um cursor pela tela. E aí entra o próprio chatbot inteligente: analisando o contexto e o estado emocional do usuário, ele oferece opções do que o usuário gostaria de dizer no momento, em forma de texto ou som em tempo real. O paciente só pode escolher a opção mais adequada.

«Líder da equipe, afaste-se do switch! Eu posso explicar tudo! (fonte: geração de IA baseada no modelo SDXL 1.0)

⇡#Nada é estranho a um bot de programação

ChatGPT e seus bots inteligentes relacionados tornaram-se recentemente uma grande ajuda para programadores de todo o mundo. No mínimo, eles transferem regularmente uma quantidade significativa de trabalho de rotina para escrever códigos não muito sofisticados, dos ombros humanos para os seus próprios. No entanto, a questão é: quão bons são os grandes modelos de linguagem como programadores? Eles foram questionados por especialistas da organização internacional de engenheiros eletrônicos IEEE – e descobriram que a principal (e mais alarmante) característica da qualidade da programação de IA pode ser chamada de imprevisibilidade. Ao ChatGPT foi oferecida uma ampla gama de tarefas de teste, cujo resultado foi um código pronto para uso. Assim, descobriu-se que o bot inteligente lidou com tarefas em uma ampla faixa de sucesso condicional – de 0,66% a 89%, dependendo da complexidade da tarefa, da linguagem de programação escolhida, se era necessário levar em consideração quaisquer circunstâncias adicionais, não explicitamente formuladas no problema, etc.

E o mais triste é que os pesquisadores não conseguiram identificar um padrão absolutamente estrito aqui: em algum lugar o ChatGPT (mesmo na versão 3.5!) acabou sendo melhor que os programadores ao vivo, e em algum lugar, e não necessariamente na solução dos problemas mais complexos, ele foi catastroficamente pior. Além disso, conforme foi estabelecido durante os testes de diferentes modelos do bot inteligente, suas versões de 2021 e anteriores lidaram melhor com a resolução de tarefas simples de programação: a taxa de sucesso para eles foi de 89% contra 52%, conforme demonstrado pela versão atual do ChatGPT. Os pesquisadores levantaram a hipótese de que devido à falta de pensamento crítico na rede neural generativa (de onde viria? Ela não pensa, mas após o treinamento dá respostas às perguntas feitas por analogia), ela não é capaz de compreender o a própria essência do método algorítmico de resolução de problemas, mas no qual toda a programação se baseia. E, portanto, cometendo até os erros mais simples (inevitáveis ​​dadas as “alucinações”), ele é incapaz de identificá-los e corrigi-los de forma independente. Provavelmente, o treinamento adicional com professores, cujas funções serão programadores biológicos experientes, corrigirá a situação, mas é improvável que os atuais grandes modelos de linguagem levem a um nível de 100% de sucesso na resolução até mesmo de problemas elementares: seu sistema não é o mesmo. Isso, no entanto, não confunde todos os desenvolvedores: a AWS já prometeu lançar o App Studio – um “atelier” de IA no qual aplicativos de nível empresarial serão gerados com base em um prompt de texto. Vamos ver o que ela inventa.

«Hmm, mas é verdade que os aceleradores de ouro puro eram mais baratos…” (fonte: geração de IA baseada no modelo SDXL 1.0)

Investidores numa encruzilhada

Deveríamos dar dinheiro a cada vez mais startups de IA ou deveríamos segurar os cavalos, dado o quão jovem e essencialmente subdesenvolvida é esta tecnologia? O professor do Instituto de Tecnologia de Massachusetts, Daron Acemoglu, por exemplo, está confiante de que, do ponto de vista econômico, não mais do que um quarto de todas as tarefas aplicadas às quais a inteligência artificial está sendo aplicada de uma forma ou de outra hoje acontecerá dentro de dez anos (um período para o setor de TI que é tão bom!) permitirá pelo menos que você devolva os fundos investidos neles. No entanto, só de Abril a Junho deste ano, só nos Estados Unidos, os investidores investiram mais de 27 mil milhões de dólares em startups de IA – cerca de metade de todos os investimentos de capital de risco durante este período.

E isto apesar do visível arrefecimento do mercado em relação aos “vendedores de pás”, que surgiu no final do mês. As ações da NVIDIA, que recentemente atingiram um máximo histórico, vêm perdendo preço na bolsa desde 10 de julho, as ações da Arm caíram 7% em um dia e 13% no dia seguinte, e o índice NASDAQ também está em declínio. E, em geral, os analistas vêem sinais de uma correcção geral descendente no segmento das empresas do sector tecnológico como consequência do facto de que o boom das bolsas de valores está fadado a terminar mais cedo ou mais tarde, e ainda não há retorno prático adequado dos enormes investimentos em IA. Um estudo recente da Lucidworks mostrou que dos 2,5 mil gerentes de alto escalão de empresas de manufatura pesquisados ​​​​em todo o mundo que estão de uma forma ou de outra envolvidos no trabalho com IA, apenas 58% pretendem aumentar os investimentos em ferramentas de inteligência artificial até o final deste ano , enquanto A média para os países pesquisados ​​é de 63%, e somente para os Estados Unidos é de 69%. Aliás, 64% dos consumidores não desejam que inteligência artificial seja utilizada em seus serviços – esses são os resultados obtidos pelo Gartner.

Se para desenvolvedores de hardware e fabricantes de chips o esfriamento do hype de investimento na direção de IA pode resultar apenas em problemas temporários – afinal, não apenas modelos generativos podem ser calculados em aceleradores de servidor – então para os próprios criadores e treinadores desses modelos, a situação actual é muito mais desagradável. Somente a OpenAI tem custos indiretos na casa dos bilhões de dólares anuais; Além disso, os custos operacionais de manutenção do conhecido ChatGPT rondam os 700 mil dólares por dia. Se você acreditar nos cálculos dos especialistas da The Information, a empresa gastará US$ 7 bilhões no treinamento de seus modelos de IA em 2024, outros US$ 1,5 bilhão em pessoal e ganhará alguns bilhões de seus clientes. Como resultado, as perdas da OpenAI este ano poderão atingir os 5 mil milhões de dólares e, se não conseguir atrair investimento externo, as reservas de capital da empresa simplesmente secarão num ano.

«De onde você veio mesmo?!” (Geração de IA baseada no modelo SDXL 1.0)

⇡#Benefício líquido

E, no entanto, seria injusto negar indiscriminadamente a utilidade da IA ​​como ferramenta aplicada: além de desenhar gatos fofos e manter conversas leves nos chats, ela é capaz de muita coisa. Por exemplo, apenas em julho, o YouTube ofereceu aos criadores de conteúdo de vídeo uma ferramenta de IA conveniente, o Eraser, para remover músicas protegidas por direitos autorais de faixas de áudio. Todos os outros sons, incluindo vozes e ruídos, permanecem, mas a música pertencente a alguém desaparece, salvando assim a pessoa que postou o vídeo de possíveis problemas legais no futuro. Conveniente!

A Microsoft, encontrando-se no meio do caminho com todos que odeiam planilhas (mas são forçadas a reconhecer seus benefícios práticos), está criando um AI SpreadsheetLLM especializado, capaz de perceber solicitações em linguagem natural, analisar e interpretar dados tabulares. Sem substituir totalmente um especialista qualificado, o modelo auxilia no trabalho com tabelas estruturadas e não estruturadas em formato Excel e ainda contém um bloco especial projetado para reduzir a probabilidade de alucinações características da IA ​​generativa. No entanto, as datas exatas de lançamento do SpreadsheetLLM ainda não foram anunciadas.

Enquanto isso, a OpenAI quase concluiu um novo desenvolvimento de IA – Strawberry, sucessor do projeto Q* (Q Star), que ficou conhecido no final de 2023. É exatamente isso que, segundo seus criadores, será capaz de fazer logicamente raciocínio (e para a construção de algoritmos, gostaria de acreditar também). O projeto secreto, revelado à Reuters, visa “estabelecer uma nova referência na capacidade de raciocínio da IA”, seja lá o que isso signifique. Muito provavelmente, presume-se que Strawberry será capaz de formular metas, fazer planos para alcançá-las e controlar o próprio processo de avançar em direção à meta – como, de fato, fazem as redes neurais biológicas. Aqueles que continuam a acompanhar o desenvolvimento da tecnologia informática com interesse genuíno são verdadeiros e, ao mesmo tempo, fazem cada vez mais perguntas.

________________

* Incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu liquidar ou proibir atividades que tenham entrado em vigor pelos motivos previstos na Lei Federal de 25 de julho de 2002 nº 114-FZ “ Sobre o Combate às Atividades Extremistas”

avalanche

Postagens recentes

Asus lançou uma placa-mãe com soquete girado para Intel Arrow Lake-S

A Asus lançou a placa-mãe Pro WS Z890-ACE SE para a criação de estações de…

41 minutos atrás

Huawei Mate 70 recebeu um novo processador soberano Kirin 9020, que é muito semelhante ao antigo

A Huawei apresentou hoje a série Mate 70 de smartphones emblemáticos, bem como o smartphone…

2 horas atrás

O sensacional gerador de vídeo AI OpenAI Sora foi aberto a todos sem permissão

Um grupo de criadores de conteúdo de vídeo recrutados pela OpenAI para ajudar a desenvolver…

2 horas atrás

Os indicadores estão caindo, mas a CD Projekt não desanima – as vendas do Cyberpunk 2077 atingiram novos patamares

A empresa polaca CD Projekt relatou resultados financeiros para o terceiro trimestre do ano civil…

3 horas atrás