Em publicação nas redes sociais, Hinton disse que deixou o Google para poder falar livremente sobre os riscos da IA, e não pelo desejo de criticar a empresa especificamente.
“Saí para poder falar sobre os perigos da IA sem considerar como isso afeta o Google”, explicou Hinton em sua conta no Twitter. “O Google agiu com muita responsabilidade”, continuou.
Jeff Dean, cientista-chefe do Google, disse que Hinton “fez avanços fundamentais em IA” e expressou gratidão pela “década de contribuições de Hinton no Google”
“Continuamos comprometidos com uma abordagem responsável da IA”, declarou Dean em um comunicado fornecido à reportagem. “Estamos continuamente aprendendo a entender os riscos emergentes enquanto também inovamos com ousadia.”
A decisão de Hinton de se afastar da empresa e falar sobre a tecnologia ocorre quando um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantam alarmes sobre o potencial de uma nova safra de chatbots com inteligência artificial para espalhar desinformação e acabar com postos de empregos.
A onda de atenção em torno do ChatGPT no final do ano passado ajudou a renovar uma corrida entre as empresas de tecnologia para desenvolver e implantar ferramentas de IA semelhantes em seus produtos.
OpenAI, Microsoft e Google estão na vanguarda dessa tendência, mas IBM, Amazon, Baidu e Tencent estão trabalhando em tecnologias semelhantes.
Em março, algumas figuras proeminentes da tecnologia assinaram uma carta pedindo que os laboratórios de inteligência artificial interrompessem o treinamento dos sistemas de IA mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”.
A carta, publicada pelo “Future of Life Institute” (Instituto do Futuro da Vida, em tradução literal), uma organização sem fins lucrativos apoiada por Elon Musk, veio apenas duas semanas depois que a OpenAI anunciou o GPT-4, uma versão ainda mais poderosa da tecnologia que alimenta o ChatGPT. Nos primeiros testes e em uma demonstração da empresa, o GPT-4 foi usado para redigir ações judiciais, passar em exames padronizados e construir um site funcional a partir de um esboço feito à mão.
Na entrevista ao NY Times, Hinton ecoou as preocupações sobre o potencial da IA para eliminar empregos e criar um mundo onde muitos “não serão mais capazes de saber o que é verdade”. Ele também apontou para o impressionante ritmo de avanço, muito além do que ele e outros haviam previsto.
“A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas – algumas pessoas acreditaram nisso”, expôs Hinton. “Mas a maioria das pessoas achou que estava errado. E eu pensei que estava longe, achando que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.”
Mesmo antes de deixar o Google, Hinton havia falado publicamente sobre o potencial da IA tanto para o mal quanto para o bem.
“Acredito que o rápido progresso da IA transformará a sociedade de maneiras que não entendemos totalmente e nem todos os efeitos serão bons”, citou Hinton em um discurso de formatura em 2021 no Instituto Indiano de Tecnologia em Mumbai.
Ele observou como a IA aumentará a assistência médica e, ao mesmo tempo, criará oportunidades para armas autônomas letais. “Acho essa perspectiva muito mais imediata e muito mais aterrorizante do que a perspectiva de robôs assumirem o controle, o que acho que está muito distante”.
Hinton não é o primeiro funcionário do Google a levantar uma bandeira vermelha na IA. Em julho, a empresa demitiu um engenheiro que alegou que um sistema de IA não lançado havia se tornado autoconsciente, dizendo que ele violou as políticas de emprego e segurança de dados. Muitos na comunidade de IA rejeitaram fortemente a afirmação do engenheiro.