⇡#E aqui está nosso Diretor Executivo
«A inteligência artificial privará centenas de milhões de pessoas dos seus empregos”, alertam os alarmistas de vez em quando. No entanto, até agora, a IA não destruiu geralmente empregos anteriores, mas criou novos – por exemplo, devido à necessidade de aumentar a produção de hardware para executar (e especialmente para treinar novos) modelos generativos. No entanto, ainda existem profissões que são particularmente vulneráveis à concorrência potencial de sistemas especializados inteligentes. E não menos importante entre eles, por mais estranho que possa parecer para alguns, estão os diretores executivos (CEOs) de empresas comerciais bastante grandes. Pelo menos este é o perigo sobre o qual os chefes corporativos são alertados por especialistas do The New York Times: “Considerando que [os executivos] antes terceirizavam a força bruta e as atividades rotineiras, deixando a formação da estratégia e a gestão geral em suas próprias mãos, agora é hora de terceirizar a inteligência”. .”
O argumento apresentado em apoio a tal alerta é bastante digno de atenção: a essência do trabalho do CEO é a acumulação e processamento de muitos fluxos de dados heterogêneos e nem sempre bem estruturados, prevendo o estado do mercado e o comportamento do empresa – e, em última análise, tomar decisões responsáveis. A sua execução, à medida que são implementadas, deve ser prontamente monitorizada e, se necessário, prontamente ajustada. Ao mesmo tempo, a maior parte do tempo de trabalho dos administradores executivos é ocupada pela comunicação com subordinados e empresários – pessoalmente ou através de canais de comunicação digital; com demonstração e análise e contra-discussão de todos os tipos de tabelas, diagramas, etc. Mas é precisamente a análise de dados semiestruturados e as previsões baseadas neles, bem como as comunicações em linguagem natural, que são o lado mais forte de ambos a atual IA generativa e sistemas de computador especializados mais modestos (não aqueles que se candidatam para passar no teste de Turing) baseados em aprendizado de máquina.
Em 2017, Jack Ma, então CEO da gigante do varejo online Alibaba, previu que em apenas três décadas, “um robô provavelmente aparecerá na capa da revista Time como o melhor diretor executivo do ano”. Na realidade, o ritmo deste tipo de transformação revelou-se ainda mais rápido: por exemplo, a desenvolvedora chinesa de jogos online NetDragon Websoft com uma equipe de 5 mil funcionários já em 2022 introduziu um “CEO rotativo baseado em inteligência artificial” chamado Tang Yu: sob a supervisão de uma equipe gerida por ela inclui, mas não se limita a, avaliação de desempenho e mentoria de programação. Outro exemplo é a marca polaca de bebidas alcoólicas Dictador, que no final de 2023 nomeou um robô chamado Mika como seu CEO: com base em considerações de “adesão imparcial e intransigente aos interesses da empresa”, o que pode ser alcançado numa destilaria sob o a liderança de um diretor executivo biológico, a julgar por tudo o que aconteceu antes da experiência da humanidade, não é tão simples.
⇡#Cola, pedras e outras bobagens
O receio de que os motores de busca da Internet deixem em breve de ter qualquer utilidade para ninguém, uma vez que os chatbots inteligentes começarão a fornecer todas as informações com base nas solicitações dos utilizadores, foram refutados com sucesso na prática por ninguém menos que o Google – um projecto cujo próprio nome se tornou um nome familiar para designação do procedimento de busca de dados na World Wide Web. A ferramenta “inteligente” AI Overview, atualmente promovida pela empresa, foi projetada para analisar os resultados da pesquisa de uma pessoa, oferecendo como resultado um resumo concentrado e estruturado de muitas fontes confiáveis - mas esta montanha impressionante de vez em quando dá origem a um engraçado rato. Ao conselho de misturar cola segura para o corpo no molho de pizza, para que ao inclinar o queijo colocado em cima não escorregue, foi acrescentada uma nova palavra na ciência nutricional, como a recomendação “pedras contêm minerais e portanto pode ser bom para a saúde” – em resposta a uma pergunta obviamente complicada Um usuário anônimo perguntou “Quantas pedras devo comer?”
Como explicaram posteriormente os representantes do Google, o aparecimento deste tipo de “maus conselhos” é bastante lógico: existe um mecanismo de feedback positivo. Alguém, fazendo outra pergunta ao sistema, acidentalmente recebe uma resposta particularmente ridícula ou engraçada como resultado de uma alucinação de IA. Compartilhe com amigos e conhecidos, eles espalham a captura de tela engraçada pela Internet; a frase migra das redes sociais e blogs para as páginas virtuais dos periódicos, é indexada pelos próprios robôs de busca do Google – e como resultado acaba no banco de dados analisado pelo AI Overview como uma afirmação completamente confiável. Bom, já que tem tantas referências independentes, isso significa que é confiável? Os bots de busca, não equipados com IA, não são capazes de determinar o contexto de uma declaração, mas a relevância formal de uma frase, captada e espalhada pela Internet em questão de dias por dezenas e centenas de milhares de fontes independentes, transforma-se em acabou sendo muito impressionante. Com a resposta sobre as pedras, ficou ainda mais interessante: já em 2021, a famosa publicação satírica The Onion publicou uma nota Geólogos recomendam comer pelo menos uma pedra pequena por dia com referência a “geólogos de Berkeley” – é provável que A AI Overview tomou isso como base para sua resposta inadequada, por razões óbvias, não captando a ironia do autor.
O problema identificado apenas à primeira vista parece um incidente engraçado que não reflete o estado geral da IA generativa no estágio atual de seu desenvolvimento. O mecanismo descrito de reforço de “alucinações” aleatórias em uma série de dados supostamente confiáveis, nos quais a AI Overview posteriormente baseia suas respostas, ameaça se transformar em esquizofasia natural para a inteligência artificial – uma violação da estrutura da fala na qual as frases são construídas gramaticalmente corretamente , mas não carregam sentido (exemplo clássico de um livro de psiquiatria: “Estou registrado no ar, então o Mar Negro se dissipou, o bigode ficou vermelho”). A falta de reflexão no modelo de IA – ao nível da compreensão do significado das afirmações que formula – pode levar à contaminação irreversível dos seus parâmetros (pesos nas entradas dos seus perceptrons). O que, na pior das hipóteses, exigirá o retreinamento da mesma Visão Geral de IA do zero em uma série de dados obviamente confiáveis, limpos manualmente por pessoas – com custos de material correspondentes e, muito pior, perda de confiança por parte dos usuários, tanto privados quanto comerciais .
⇡#AI qual é a barra de tração
Uma pessoa pode transformar qualquer invenção em bem ou em mal para si e para os outros, e isso se aplica à inteligência artificial tanto quanto a um machado ou à divisão de um átomo. De acordo com o comunicado oficial da OpenAI, a empresa interrompeu pelo menos cinco “operações de influência” secretas nos três meses de primavera deste ano, durante as quais os atacantes tentaram usar o modelo generativo mais famoso do mundo para influenciar a opinião pública sobre várias questões urgentes – desde convulsões políticas na União Europeia antes das eleições na Índia. A julgar pelo comunicado de imprensa, que não é cheio de detalhes, os “atacantes” fizeram perguntas ao ChatGPT sobre como promover certas narrativas nas redes sociais da forma mais inteligível e discreta. E se a OpenAI afirma que todas as tentativas (que ela conhece) foram interrompidas, isso significa que tópicos potencialmente perigosos são de alguma forma monitorados na fase de formulação de solicitações. É até possível, não apenas por palavras-chave, mas utilizando um modelo generativo adicional em relação ao chatbot principal – e não é a priori um facto que seja obviamente mais simples e menos intensivo em recursos.
No entanto, mesmo a presença de tal obstáculo não impede que hackers éticos tentem hackear chatbots inteligentes com sucesso. De acordo com o Financial Times, os pesquisadores envolvidos na identificação de vulnerabilidades de IA contornam com sucesso as limitações impostas pelos criadores dos modelos generativos, forçando o sistema a fornecer-lhes uma receita detalhada para o napalm, justificando as opiniões de Hitler, ou mesmo transferindo o chatbot para “ Modo Deus”, emancipando-o de toda e qualquer proibição. E embora os hackers éticos de IA anunciem publicamente os seus sucessos e informem imediatamente os modeladores sobre as falhas identificadas nos seus circuitos de segurança, então, por razões óbvias, as ações bem-sucedidas dos hackers antiéticos permanecem ocultas aos olhos do público. A julgar pelo crescimento explosivo dos custos de segurança da informação no domínio da IA (em 2022, as startups nesta área arrecadaram 70 milhões de dólares; um ano depois – já 213 milhões de dólares), a vulnerabilidade potencial de grandes modelos de linguagem a este tipo de ataque ameaça um novo aumento dos custos da IA - tanto puramente financeiros como energéticos.
⇡#Quem precisa disso?
Cientistas britânicos do Instituto Reuters para o Estudo do Jornalismo fizeram uma pergunta estranha para os fãs inveterados da alta tecnologia: até que ponto, de fato, a inteligência artificial é um fenômeno de interesse do público em geral? “Interessado” é um conceito muito vago, por isso foi organizado um estudo bastante extenso (12 mil pessoas da Argentina, Dinamarca, França, Japão, Grã-Bretanha e EUA) com um objetivo mais específico e prático – descobrir com que frequência as pessoas que utilizam o acesso à Internet de forma livre e regular, recorrem aos chatbots inteligentes, tão amplamente promovidos hoje em dia. E os resultados, falando francamente, são desanimadores.
Não é de surpreender que os mais comprometidos com a interação com a IA sejam os representantes da faixa etária “dos 18 aos 24 anos”. É surpreendente, no entanto, que mesmo entre eles apenas 9% acessam fontes geradoras de informação diariamente (ou esquizofasia, dependendo da sua sorte), semanalmente – 18%, uma vez por mês – 12%, não mais do que algumas vezes no toda a vida passada – 17%; total – 56%. Nas faixas etárias mais avançadas, estas percentagens deverão ser ainda mais baixas. Pesquisadores britânicos apontaram diretamente a “lacuna enorme” entre o entusiasmo gerado nas TI e nos círculos de TI em torno do tema da inteligência artificial e o nível real de interesse público por ela. Sim, os atuais LLMs multimodais são capazes de responder a uma pergunta formulada em linguagem natural não apenas com texto e uma voz sintetizada muito plausível, mas também com imagens e sequências de vídeo – criando até mesmo efeitos sonoros personalizados. E ainda: uma parte significativa do público (que não é alheio às altas tecnologias, lembremo-lo!) não se interessa por elas – e no Reino Unido, digamos, 30% dos inquiridos nunca tinham sequer ouvido falar de tais soluções, o que têm agitado o mundo da TI nos últimos anos, como o ChatGPT.
É também interessante que entre os participantes do inquérito, apenas uma pequena fracção – 5% de toda a amostra – se baseia em modelos generativos para obter (mais precisamente, dir-se-ia provavelmente, para resumir e interpretar a partir de uma variedade de fontes disponíveis) novidades. notícias. A parcela daqueles para quem a IA ajuda a gerar texto, código de programa, imagens, música, etc. com base em dicas não ultrapassa 28%, e aqueles que obtêm informações mais fundamentais (não notícias) com a ajuda de chatbots inteligentes é de 24%. Em geral, parece que os autores do estudo estão gentilmente levando o leitor à conclusão de que o público-alvo de todo esse hype em torno de modelos de IA novos e cada vez mais habilidosos (a acreditar nos comunicados de imprensa e nos resultados de testes sintéticos) não é tanto usuários finais, privados ou comerciais, quanto investidores e participantes do mercado de ações. Mas definitivamente não é esse o caso, certo?
⇡#Cinema e bots
Fazer cinema é um prazer caro, e o público moderno é muito mais difícil de agradar do que os primeiros espectadores entusiasmados de The Great Mute. Felizmente, os cineastas agora têm a oportunidade de reduzir os custos de criação de novos longas-metragens e séries de TV usando IA – pelo menos é isso que a Sony Pictures Entertainment está planejando fazer. Não estamos falando aqui da visão geral da administração da empresa sobre as novas tecnologias, mas de um próximo filme muito específico do universo Spider-Verse: uma decisão deve ser tomada muito em breve. Afinal, o problema mais sério que os estúdios cinematográficos enfrentam hoje é, segundo o CEO da Sony Pictures Entertainment, Tony Vinciquerra, a incrível quantidade de custos para criar um filme digno de ser chamado de blockbuster. O executivo admite que a greve de oito meses do ano passado em Hollywood – precisamente contra o uso generalizado de IA pelos estúdios – aumenta os custos de utilização de grandes modelos de linguagem na produção cinematográfica, mas de qualquer forma, continuar a filmar à moda antiga tornar-se-á mais caro de ano para ano, então não há alternativas à IA no set (ou mesmo em vez dela) no futuro.
Mas se a inteligência artificial ajuda os grandes estúdios a fazer filmes, por que os fãs comuns de filmes e séries de TV são piores? A startup Fable Studio, com sede em São Francisco, que ficou famosa online por seu episódio de South Park gerado por IA, anunciou a criação da plataforma Showrunner, na qual qualquer pessoa pode, com o apoio de grandes modelos generativos, escrever um roteiro, animar e narrar a imagem dos seus sonhos. Por enquanto, as coisas estão limitadas a pequenos vídeos de animação, mas no futuro a tecnologia será capaz – pelo menos em teoria – de tornar possível a criação de longas-metragens com atores e ambientes realistas. O objetivo de longo prazo da startup é criar o “Netflix do mundo da IA”, uma plataforma onde, ao toque de um botão, após inserir uma descrição muito geral do episódio desejado, um sistema de computador irá gerar (talvez em tempo real) exatamente o que esse usuário específico espera ver.
⇡#Lembre-se de tudo (não?)
Ao longo de junho, a saga continuou com a função Recall, que a Microsoft desenvolveu para o Windows 11 em um esforço para tornar a funcionalidade de IA de seu sistema operacional ainda mais atraente – inclusive para usuários corporativos (e ao mesmo tempo incentivá-los gentilmente a comprar o presumivelmente AI-PCs recém-criados – especialmente porque o Windows 10 continua a ser o sistema operacional mais popular do mundo, mesmo apesar da cessação iminente de seu suporte total). Tendo conseguido causar bastante agitação entre os usuários e atrair a atenção desfavorável dos reguladores, esta função deveria inicialmente fazer capturas de tela de um PC em execução de forma contínua e regular (a cada cinco segundos!) e, em seguida, usando IA, analisá-las com base no usuário. solicitações de. Esta parece ser uma oportunidade extremamente conveniente: todos provavelmente já tiveram a experiência de que alguma informação importante no início do dia de trabalho foi obtida de um documento que foi aberto de passagem, ou de um site visitado aleatoriamente, e no final do dia noite, eles não conseguem mais se lembrar de onde exatamente veio. E às vezes você tem que gastar horas para chegar ao fundo dos dados necessários novamente, enquanto uma simples solicitação a um bot de IA que monitora vigilantemente a atividade do usuário permitirá que você obtenha uma resposta abrangente em um período de tempo insignificante.
Ao mesmo tempo, é óbvio que os clientes corporativos – bem como um número considerável de usuários privados paranóicos (no sentido saudável da palavra) – não despertaram muito entusiasmo pela própria ideia de exibição ponta a ponta da tela de seus computadores pessoais por parte da gigante de TI. Já nos primeiros dias de junho, a Microsoft anunciou uma mudança na forma como o Recall funciona – indicando que sem permissão direta e explícita do proprietário do PC (que o sistema solicitará na fase de sua própria inicialização na primeira inicialização), nenhuma captura de tela será tomado. O desenvolvedor também protegerá a saída dos resultados do uso do Recall (que, na próxima atualização, também recebeu a possibilidade de escanear o conteúdo do “Desktop” em tempo real): para acessá-los será necessária autorização via Windows Hello . Em qualquer caso, esta funcionalidade estará disponível exclusivamente nos novos computadores Copilot Plus PC, e nem mesmo imediatamente após serem colocados à venda, mas somente após testes internos completos como parte do programa Windows Insider. Entretanto, a partir do final de junho, mesmo os testadores deste programa estão privados de acesso ao Recall. Talvez isso tenha algo a ver com o surgimento, no início do mês, de ferramentas hackers para extrair dos PCs dos usuários todos os dados coletados por esse sistema de registro de ponta a ponta.
⇡#Câmara Uma AI
Já mencionamos acima a passagem bem-sucedida da IA (ou seja, um chatbot baseado em GPT-4) no teste de Turing no Instituto de Engenheiros Elétricos e Eletrônicos (IEEE). Além disso, em junho, o ChatGPT conseguiu superar os alunos iniciantes nos exames mais comuns projetados para uma pessoa passar – e em uma área nada relacionada a computadores. Um grupo de pesquisadores britânicos da Universidade de Reading apresentou respostas escritas de IA a questões de exames de psicologia em nome de três dúzias de estudantes inexistentes. Não só os psicólogos certificados em 94% dos casos não perceberam que estavam lidando com registros gerados por um chatbot, mas também em 84% dos casos, o bot inteligente recebeu uma nota mais alta (pelo menos meio ponto) na prova do que a média O grupo abrangido por esta prova recebeu alunos vivos. É verdade que esse truque se aplica (por enquanto?) apenas aos exames dos cursos juniores: ao competir com alunos do último ano de estudos, o ChatGPT não conseguia mais pontuar acima da média do grupo.
Existem outras áreas, além da aprovação em determinados exames, nas quais a IA está cada vez mais começando a superar os humanos: por exemplo, no design de óculos de overclocker para nitrogênio líquido. Um desenho nada trivial da estrutura capilar inferior, proposto pela plataforma Diabatix ColdStream Next AI especialmente treinada para resolver tais problemas e depois incorporada em metal (nomeadamente, em pó de cobre isento de oxigénio) através de impressão 3D, tornou possível quase triplicar o tempo para levar a temperatura do vidro a -194 °C e também aumentar a eficiência do uso de nitrogênio líquido em 20%.
⇡#Esta é uma grama difícil
«Estou deitada na grama, com cem fantasias na cabeça”, escreveu a poetisa há várias décadas, sem suspeitar de quantas alucinações severas as pistas mais inocentes como “uma mulher deitada na grama” provocariam no recém-criado gerador modelo Difusão Estável 3 Médio (SD3M). Ao mesmo tempo, o modelo gera paisagens, naturezas mortas, imagens de cachorros com jaquetas fofas e até pessoas em pé, sem excluir mulheres, com qualidade bastante decente; embora um pouco pior do que a comunidade de entusiastas do desenho de IA esperava. Mas com pessoas mentirosas, com mãos e pés, é simplesmente um desastre. Os fãs das criações anteriores do Stability AI, especialmente dos modelos SD 1.5 e SDXL, suspeitam seriamente que o desenvolvedor esteja castrando deliberadamente o conjunto de dados de treinamento nos quais o SD3M foi treinado, removendo de lá todas as imagens mais ou menos obscenas em prol da segurança deliberada. do conteúdo produzido pelo modelo.
A história, na verdade, se repete: em 2022, a Stability AI já lançou um modelo treinado em um conjunto de dados simplificado – Stable Diffusion 2.0 e, posteriormente, 2.1. Como observaram os pesquisadores desta edição, a exclusão de imagens obscenas (NSFW) do conjunto de dados de treinamento levou a uma deterioração na capacidade do modelo de criar imagens adequadas de pessoas – vestidas de maneira bastante decente (pela mesma razão que um artista que não praticou em nudez e auxílios anatômicos. Há muito mais erros nos desenhos do que em alguém que aprendeu na prática como o corpo se estrutura sob a roupa e como os ossos, músculos e ligamentos se estruturam sob a pele). De uma forma ou de outra, a Stability AI hoje, e além do falso início do SD3M, está com a boca cheia de preocupações – a saída de vários desenvolvedores líderes e as dificuldades financeiras que vêm acontecendo desde o ano passado. Enquanto isso, a empresa está lidando com eles, fãs curiosos de IA generativa segura podem testar de forma independente sua resistência mental a gerações no gênero de terror corporal gratuitamente, sem registro e SMS na página de demonstração oficial do modelo.
⇡#A grande batalha pelos dados
A frase “os dados são o novo petróleo” nunca foi tão verdadeira como na era dos modelos generativos. Não importa quão sofisticada seja a sua arquitetura, eles não serão capazes de gerar nada útil sem treinamento em uma vasta gama de dados bem indexados, e a busca por tais dados é extremamente ativa em todo o mundo; às vezes em violação de uma série de normas – pelo menos morais, se não diretamente legais. Junho de 2024 não foi exceção nesse sentido: por exemplo, a Adobe primeiro permitiu-se graciosamente o acesso ao conteúdo dos usuários de seu software, incluindo o Photoshop, simplesmente alterando os termos do contrato do usuário (e para que mais uma empresa poderia precisar desse acesso? , se não fosse para treinar o próprio modelo de inteligência artificial generativa da Firefly?), então declarou firmemente que esse conteúdo não seria usado especificamente para treinar IA e, no final, foi forçado a especificar em detalhes no contrato de termos de serviço alterado que nunca seria treinar IA no conteúdo do usuário, que é armazenado localmente e em sua nuvem. Mas muitos magos do Photoshop, que antes estavam incontrolavelmente encantados com as capacidades do Firefly, definitivamente deixaram uma sensação na boca.
Por sua vez, o American Center for Investigative Reporting (CIR) moveu uma ação judicial em tribunal federal contra a OpenAI e a Microsoft – porque considerou que estas empresas envolvidas no desenvolvimento de IA violaram massivamente os seus direitos ao conteúdo usado para treinar modelos generativos sem qualquer negociação ou compensação . Curiosamente, a posição do CIR – e de uma série de publicações privadas como o The New York Times, o New York Daily News, o The Intercept, o AlterNet e o Chicago Tribune – não é típica de todo o jornalismo americano. Uma parte considerável da imprensa periódica (que agora foi quase inteiramente transformada em formato digital) prefere celebrar acordos privados com a OpenAI sobre o licenciamento dos seus dados, como resultado dos quais novos modelos são treinados em arquivos de publicações bem estruturados , e as informações fornecidas pelo chatbot aos usuários contêm informações de verificação de publicações nas quais essas respostas se baseiam. Em particular, a revista TIME, a News Corp (proprietária do The Wall Street Journal e muitas outras publicações), o Financial Times, a Axel Springer (os seus activos incluem o Politico e o Business Insider), a Associated Press, etc., já celebraram acordos com a OpenAI.
⇡#Super habilidades de IA
Uma das diferenças fundamentais entre um robô e um humano, se você acredita na ficção científica, resume-se à falta de emoções “genuínas” do primeiro, impulsionadas por hormônios – mesmo com uma prontidão programada para imitá-las adequadamente. E, a propósito, não é fato que os desenvolvedores se esforçarão para suavizar essa diferença o mais rápido possível: a humanidade ainda carecia de uma inteligência artificial forte (IA forte) caprichosa, complacente, gananciosa e/ou insidiosa como vizinha. o planeta! Mas enquanto estamos lidando com IA generativa “fraca”, podemos usá-la para suavizar as emoções humanas – não no estágio de sua manifestação, é claro, mas na área que vai do emissor (na verdade, dilacerado pelos sentimentos fortes da pessoa) até o destinatário (seu interlocutor do outro lado do canal de comunicação). Na verdade, é a isso que se resume o novo desenvolvimento da corporação japonesa SoftBank: reduz a intensidade das paixões na linha de voz através da qual os clientes – que nem sempre atingiram o estágio de iluminação de Buda – se comunicam com o serviço de suporte.
Os japoneses abordaram o problema metodicamente: dez atores especialmente contratados proferiram cerca de cem frases em diferentes tons emocionais, formando eventualmente um banco de dados de cerca de 10 mil fragmentos de dados de voz, nos quais a IA generativa foi então treinada. Agora ele é ativado em tempo real se o cliente começar a gritar, gritar ameaçadoramente, gemer lamentavelmente ou tentar pressionar emocionalmente o operador – e, sem alterar o conteúdo das frases faladas, ajusta sua tonalidade para neutra. Além disso, se um cliente demorar muito na linha e estiver testando claramente a paciência do representante de suporte, a IA detecta isso (tanto na entonação quanto no conteúdo da conversa) e imediatamente interrompe a conversa de uma forma especialmente selecionada. voz desapaixonada: “Lamentamos informar que o serviço desta sessão será interrompido imediatamente” e depois desliga. Está previsto colocar em operação um bot que interrompa a emotividade humana em 2025. G.
O fundador e chefe da empresa de comunicações de TI Zoom, que trovejou por todo o planeta durante a pandemia, Eric Yuan, também acredita que os bots de IA são mais do que úteis no serviço. Eles são tão úteis que já podem substituir totalmente as pessoas em reuniões on-line, agindo como duplos digitais completos: discutir questões importantes em nome de seus proprietários, registrar o andamento da discussão, resumir seus resultados e, em seguida, fornecer aos seus originais biológicos uma descrição. resumo amplo, mas detalhado, do evento participado. Aparentemente, em breve esses gêmeos digitais sob a marca convencional Zoom AI Companion serão fornecidos mediante solicitação a clientes comerciais deste sistema de colaboração e, em 5 a 6 anos, garante o Sr. Yuan, até 90% de todas as preocupações que os funcionários de escritório têm acostumados hoje serão capazes de cuidar (ou seja, com um risco aceitavelmente baixo de erros de cálculo e erros; não superior ao do trabalhador vivo médio) agentes de IA. Outra questão é para onde irão os protótipos vivos de avatares digitais trabalhando no suor de seus rostos virtuais desta vez, mas não faz sentido perguntar aos representantes empresariais: isso já é uma questão de escala nacional.
⇡#Inteligência é um negócio arriscado
Em junho, soube-se que o NewsBreak, o aplicativo para smartphone mais popular dos Estados Unidos – um agregador de notícias com mais de 50 milhões de assinantes mensais ativos, aliás, no sentido literal da palavra, muitas vezes “quebrou” essas mesmas notícias, significativamente temperando o feed fornecido aos usuários com suas próprias alucinações. Policiais de Bridgeton, Nova Jersey, em particular, pegaram o bot mentiroso pela mão, depois que o NewsBreak no final de 2023 chocou os leitores com um artigo comovente, mas não baseado em fatos reais, “A tragédia do dia de Natal atinge Bridgeton, Nova Jersey Em meio ao aumento da violência armada em cidades pequenas.” E este é apenas um dos cerca de cinquenta casos identificados nos últimos três anos em que um bot inteligente gerou informações essencialmente falsas.
E se tudo é tão difícil mesmo com as novidades da IA, o que podemos dizer sobre atrair modelos generativos para indústrias ainda mais sensíveis – por exemplo, nas finanças? Janet Yellen, chefe do Departamento do Tesouro dos EUA, falando numa conferência especializada sobre a utilização da IA no domínio da circulação monetária, alertou contra a confiança imprudente nesta ferramenta – que pode de facto reduzir significativamente os custos de transacção, mas ao mesmo tempo tempo potencialmente se torna uma fonte de “riscos significativos”. Associado principalmente, é claro, a alucinações que são inevitáveis para ele nesta fase, cuja probabilidade pode ser reduzida trabalhando duro na qualidade da base de treinamento da IA, mas ainda não é possível livrar-se delas com garantia . No entanto, o medo tem olhos grandes: do outro lado do Atlântico, o Ministério das Finanças russo decidiu introduzir a inteligência artificial, desenvolvendo destemidamente, em conjunto com a Sber, o primeiro agente especializado em IA para optimizar o processo orçamental na administração governamental. A implementação piloto da solução está planeada já no próximo ciclo orçamental.
Como se ecoasse as advertências de Yellen, um grupo de ex-desenvolvedores de OpenAI e Google DeepMind, que ocultaram parcialmente seus nomes, emitiu um apelo público para proteger seus membros da perseguição por parte de empresas de IA – para que denunciantes vigilantes (um nome que remonta ao século XIX século) para aqueles que percebem alguma atividade repreensível e chamam a atenção para ela em voz alta) poderiam, sem temer pelo seu bem-estar, contar ao mundo sobre os riscos associados a esta direção do progresso tecnológico. Nomeadamente, sobre o aprofundamento da desigualdade, o alargamento do âmbito da desinformação e a manipulação da consciência das pessoas: todos estes problemas podem ser multiplicados pela utilização incorrecta da inteligência artificial e, portanto, é necessário um controlo particularmente estreito sobre as actividades das empresas que a desenvolvem.
⇡#Precisa de mais energia
O alto orçamento de energia da computação de IA é óbvio para qualquer pessoa que já tenha executado pelo menos uma vez um modelo generativo simples em seu PC – e observado como a temperatura dentro do gabinete do computador aumenta visivelmente. Com os servidores de IA é ainda mais complicado: eles, como mostra a prática, são tão vorazes que os Estados Unidos começaram a rever a estratégia de longo prazo para o desmantelamento de centrais eléctricas a carvão – simplesmente porque simplesmente não há electricidade suficiente para suportar todos os pedidos de IA. . Segundo a Agência Internacional de Energia, uma chamada típica para o ChatGPT custa dez vezes mais energia do que processar uma solicitação para um motor de busca clássico. De acordo com os planos atuais, a capacidade total das usinas a carvão da América, que deverão ser desativadas até o final da década de 2020, é de 54 GW – cerca de 4% do volume total de geração no país. No entanto, ainda no ano passado, presumia-se que o ritmo dessa remoção seria 40% superior – e este procedimento terá claramente de esperar: em 2030, a computação de IA poderá representar até 9% de toda a electricidade gerada nos Estados Unidos. Nessas condições, não há absolutamente nenhuma necessidade de descartar nós de geração totalmente funcionais, embora não muito “verdes”.