Ilya Sutskever, cofundador e ex-consultor científico-chefe da empresa de inteligência artificial OpenAI, anunciou a criação de sua startup chamada Safe Superintelligence (SSI). O principal objetivo da nova empresa é desenvolver inteligência artificial segura e ao mesmo tempo poderosa, relata The Verge.
Na sua declaração, Sutzkever enfatizou que na SSI, as capacidades de segurança e IA evoluirão em conjunto. Isso permitirá que a empresa avance rapidamente em seus desenvolvimentos, mas o foco principal será garantir a segurança do sistema. Ao contrário de gigantes de TI como Google, Microsoft e a própria OpenAI, a SSI não sofrerá pressão comercial e a necessidade de lançar produto após produto. Isto proporcionará a oportunidade de focar no escalonamento incremental da tecnologia, mantendo ao mesmo tempo os mais altos padrões de segurança.
Além do próprio Sutzkever, a SSI foi cofundada por Daniel Gross, ex-chefe de IA da Apple, e Daniel Levy, da equipe técnica da OpenAI. Curiosamente, no ano passado, Sutskever defendeu ativamente a demissão do CEO da OpenAI, Sam Altman, e após sua saída em maio, ele sugeriu o lançamento de um novo projeto. Outros funcionários importantes da OpenAI logo o seguiram, citando problemas em priorizar a ética e a responsabilidade da IA.
A SSI não tem planos para quaisquer parcerias neste momento. Sutzkever deixou claro que o único produto da sua empresa seria a superinteligência segura e, até que fosse criada, a SSI não faria mais nada. Assim, a startup realmente desafia gigantes da indústria como a OpenAI, colocando a ética e a segurança da tecnologia em primeiro plano. Como observam os especialistas, o sucesso desta iniciativa poderá mudar completamente as abordagens ao desenvolvimento da IA na indústria.