Nos últimos dias, tenho brincado com o DALL-E 2, um aplicativo desenvolvido pela empresa OpenAI de San Francisco que transforma descrições de texto em imagens hiper-realistas.
A OpenAI me convidou para testar o DALL-E 2 (o nome é uma brincadeira com o WALL-E da Pixar e o artista Salvador Dalí) durante seu período beta, e rapidamente fiquei obcecado. Passei horas pensando em dicas estranhas, engraçadas e abstratas para alimentar a IA – “uma renderização em 3-D de uma casa suburbana em forma de croissant”, “um retrato daguerreótipo da década de 1850 de Caco, o Sapo”, “um esboço a carvão de dois pinguins bebendo vinho em um bistrô parisiense.” Em questão de segundos, DALL-E 2 cuspia um punhado de imagens retratando meu pedido – muitas vezes com um realismo de cair o queixo.
Aqui, por exemplo, está uma das imagens que DALL-E 2 produziu quando digitei “fotografia vintage em preto e branco de um mafioso dos anos 1920 tirando uma selfie”. E como isso rendeu meu pedido de uma fotografia de alta qualidade de “um veleiro tricotado com fio azul”.
DALL-E 2 também pode ser mais abstrato. A ilustração no topo deste artigo, por exemplo, é o que gerou quando pedi uma renderização de “alegria infinita”. (Gostei tanto deste que vou imprimir e emoldurar na minha parede.)
O que impressiona no DALL-E 2 não é apenas a arte que ele gera. É como ela gera arte. Não são composições feitas a partir de imagens existentes da Internet – são criações totalmente novas feitas por meio de um complexo processo de IA conhecido como “difusão”, que começa com uma série aleatória de pixels e a refina repetidamente até corresponder a uma determinada descrição de texto. E está melhorando rapidamente — as imagens do DALL-E 2 são quatro vezes mais detalhadas do que as imagens geradas pelo DALL-E original, que foi lançado apenas no ano passado.
DALL-E 2 recebeu muita atenção quando foi anunciado este ano, e com razão. É uma tecnologia impressionante com grandes implicações para quem ganha a vida trabalhando com imagens — ilustradores, designers gráficos, fotógrafos e assim por diante. Também levanta questões importantes sobre para que toda essa arte gerada por IA será usada e se precisamos nos preocupar com um aumento na propaganda sintética, deepfakes hiper-realistas ou mesmo pornografia não consensual.
Mas a arte não é a única área em que a inteligência artificial vem dando grandes passos.
Nos últimos 10 anos – um período que alguns pesquisadores de IA começaram a chamar de “década de ouro” – houve uma onda de progresso em muitas áreas de pesquisa de IA, alimentada pelo surgimento de técnicas como aprendizado profundo e o advento de hardware especializado para executar grandes modelos de IA computacionalmente intensivos.
Parte desse progresso tem sido lento e constante – modelos maiores com mais dados e poder de processamento por trás deles produzindo resultados ligeiramente melhores.
Mas outras vezes, parece mais com o apertar de um botão – atos impossíveis de mágica de repente se tornando possíveis.
Há apenas cinco anos, por exemplo, a maior história no mundo da IA era o AlphaGo, um modelo de aprendizado profundo construído pelo DeepMind do Google que poderia vencer os melhores humanos do mundo no jogo de tabuleiro Go. Treinar uma IA para vencer torneios de Go era um truque divertido, mas não era exatamente o tipo de progresso com o qual a maioria das pessoas se importa.
Mas no ano passado, o AlphaFold da DeepMind – um sistema de IA descendente do Go-playing – fez algo verdadeiramente profundo. Usando uma rede neural profunda treinada para prever as estruturas tridimensionais de proteínas a partir de suas sequências de aminoácidos unidimensionais, ele essencialmente resolveu o que é conhecido como o “problema de dobramento de proteínas”, que atormentou os biólogos moleculares por décadas.
Neste verão, a DeepMind anunciou que o AlphaFold havia feito previsões para quase todas as 200 milhões de proteínas conhecidas – produzindo um tesouro de dados que ajudarão os pesquisadores médicos a desenvolver novos medicamentos e vacinas nos próximos anos. No ano passado, a revista Science reconheceu a importância do AlphaFold, nomeando- o o maior avanço científico do ano.
Ou veja o que está acontecendo com o texto gerado por IA.
Apenas alguns anos atrás, os chatbots de IA lutavam até mesmo com conversas rudimentares – para não falar de tarefas mais difíceis baseadas em linguagem.
Mas agora, grandes modelos de linguagem como o GPT-3 da OpenAI estão sendo usados para escrever roteiros , redigir e-mails de marketing e desenvolver videogames . (Eu até usei o GPT-3 para escrever uma resenha de livro para este artigo no ano passado – e, se eu não tivesse avisado meus editores de antemão, duvido que eles suspeitassem de alguma coisa.)
A IA também está escrevendo código – mais de um milhão de pessoas se inscreveram para usar o Copilot do GitHub, uma ferramenta lançada no ano passado que ajuda os programadores a trabalhar mais rápido, finalizando automaticamente seus trechos de código.
Depois, há o LaMDA do Google, um modelo de IA que ganhou as manchetes alguns meses atrás, quando Blake Lemoine, um engenheiro sênior do Google, foi demitido após alegar que se tornou senciente.
O Google contestou as alegações de Lemoine, e muitos pesquisadores de IA discordaram de suas conclusões. Mas tire a parte da senciência, e uma versão mais fraca de seu argumento – que LaMDA e outros modelos de linguagem de última geração estão se tornando assustadoramente bons em ter conversas de texto humanas – não teria levantado tantas sobrancelhas.
De fato, muitos especialistas dirão que a IA está melhorando em muitas coisas nos dias de hoje – mesmo em áreas como linguagem e raciocínio, onde antes parecia que os humanos tinham vantagem.
“Parece que estamos indo da primavera ao verão”, disse Jack Clark, copresidente do Relatório Anual de Índice de IA da Universidade de Stanford. “Na primavera, você tem essas vagas sugestões de progresso e pequenos brotos verdes por toda parte. Agora, tudo está em flor.”
No passado, o progresso da IA era óbvio apenas para os insiders que acompanhavam os mais recentes trabalhos de pesquisa e apresentações em conferências. Mas recentemente, disse Clark, até os leigos podem sentir a diferença.
“Você costumava olhar para a linguagem gerada pela IA e dizer: ‘Uau, isso meio que escreveu uma frase’”, disse Clark. “E agora você está olhando para coisas geradas por IA e dizendo: ‘Isso é muito engraçado, estou gostando de ler isso’ ou ‘Eu não fazia ideia de que isso era gerado por IA’”
Ainda há muita IA ruim e quebrada por aí, de chatbots racistas a sistemas de direção automatizados defeituosos que resultam em acidentes e lesões. E mesmo quando a IA melhora rapidamente, geralmente demora um pouco para filtrar os produtos e serviços que as pessoas realmente usam. Um avanço de IA no Google ou OpenAI hoje não significa que seu Roomba será capaz de escrever romances amanhã.
Mas os melhores sistemas de IA agora são tão capazes – e estão melhorando a taxas tão rápidas – que a conversa no Vale do Silício está começando a mudar. Menos especialistas estão prevendo com confiança que temos anos ou mesmo décadas para nos preparar para uma onda de IA que mudará o mundo; muitos agora acreditam que grandes mudanças estão ao virar da esquina, para melhor ou para pior.
Ajeya Cotra, analista sênior da Open Philanthropy que estuda o risco de IA, estimou há dois anos que havia uma chance de 15% de “IA transformacional” – que ela e outros definiram como IA que é boa o suficiente para inaugurar uma economia em larga escala. e mudanças sociais, como a eliminação da maioria dos empregos de conhecimento de colarinho branco – que surgirão até 2036.
Mas em um post recente , a Sra. Cotra elevou isso para uma chance de 35%, citando a rápida melhoria de sistemas como o GPT-3.
“Os sistemas de IA podem ir de brinquedos adoráveis e inúteis a produtos muito poderosos em um período de tempo surpreendentemente curto”, disse Cotra. “As pessoas deveriam levar mais a sério que a IA pode mudar as coisas em breve, e isso pode ser realmente assustador.”
Há, para ser justo, muitos céticos que dizem que as alegações de progresso da IA são exageradas. Eles dirão que a IA ainda não está nem perto de se tornar consciente ou substituir humanos em uma ampla variedade de trabalhos. Eles dirão que modelos como GPT-3 e LaMDA são apenas papagaios glorificados, regurgitando cegamente seus dados de treinamento, e que ainda estamos a décadas de criar uma verdadeira AGI – inteligência artificial geral – capaz de “pensar” por si mesma.
Há também otimistas tecnológicos que acreditam que o progresso da IA está acelerando e que querem que ela acelere mais rápido. Acelerar a taxa de melhoria da IA, eles acreditam, nos dará novas ferramentas para curar doenças, colonizar o espaço e evitar desastres ecológicos.
Não estou pedindo que você tome partido neste debate. Tudo o que estou dizendo é: você deve prestar mais atenção aos desenvolvimentos reais e tangíveis que estão alimentando isso.
Afinal, a IA que funciona não fica em um laboratório. Ele é incorporado aos aplicativos de mídia social que usamos todos os dias, na forma de algoritmos de classificação de feed do Facebook, recomendações do YouTube e páginas TikTok “Para você”. Ele entra em armas usadas pelos militares e softwares usados por crianças em suas salas de aula. Os bancos usam a IA para determinar quem é elegível para empréstimos e os departamentos de polícia a usam para investigar crimes.
Mesmo que os céticos estejam certos, e a IA não alcance a sensibilidade em nível humano por muitos anos, é fácil ver como sistemas como GPT-3, LaMDA e DALL-E 2 podem se tornar uma força poderosa na sociedade. Em alguns anos, a grande maioria das fotos, vídeos e textos que encontramos na internet podem ser gerados por IA. Nossas interações online podem se tornar mais estranhas e mais complicadas, à medida que lutamos para descobrir quais de nossos parceiros de conversação são humanos e quais são bots convincentes. E propagandistas experientes em tecnologia podem usar a tecnologia para produzir desinformação direcionada em grande escala, distorcendo o processo político de maneiras que não veremos.
É um clichê, no mundo da IA, dizer coisas como “precisamos ter uma conversa social sobre o risco da IA”. Já existem muitos painéis de Davos, palestras TED, grupos de reflexão e comitês de ética em IA por aí, esboçando planos de contingência para um futuro distópico.
O que está faltando é uma maneira compartilhada e neutra de falar sobre o que os sistemas de IA atuais são realmente capazes de fazer e quais riscos e oportunidades específicos esses recursos apresentam.
Acho que três coisas podem ajudar aqui.
Primeiro, reguladores e políticos precisam se atualizar.
Devido à novidade de muitos desses sistemas de IA, poucos funcionários públicos têm experiência em primeira mão com ferramentas como GPT-3 ou DALL-E 2, nem entendem a rapidez com que o progresso está acontecendo na fronteira da IA.
Vimos alguns esforços para fechar a lacuna – o Instituto de Inteligência Artificial Centrada no Homem de Stanford recentemente realizou um “campo de treinamento de IA” de três dias para membros da equipe do Congresso, por exemplo – mas precisamos de mais políticos e reguladores para se interessar na tecnologia. (E não quero dizer que eles precisam começar a alimentar o medo de um apocalipse de IA, estilo Andrew Yang. Mesmo lendo um livro como “The Alignment Problem” de Brian Christian ou entendendo alguns detalhes básicos sobre como um modelo como o GPT-3 obras representariam um enorme progresso.)
Caso contrário, poderíamos acabar com uma repetição do que aconteceu com as empresas de mídia social após a eleição de 2016 – uma colisão entre o poder do Vale do Silício e a ignorância de Washington, que resultou em nada além de impasses e audiências irritantes.
Em segundo lugar, as grandes empresas de tecnologia que investem bilhões no desenvolvimento de IA – os Googles, Metas e OpenAIs do mundo – precisam fazer um trabalho melhor para explicar em que estão trabalhando, sem suavizar ou atenuar os riscos. No momento, muitos dos maiores modelos de IA são desenvolvidos a portas fechadas, usando conjuntos de dados privados e testados apenas por equipes internas. Quando as informações sobre eles são tornadas públicas, muitas vezes são diluídas por relações públicas corporativas ou enterradas em artigos científicos inescrutáveis.
Minimizar os riscos da IA para evitar reações adversas pode ser uma estratégia inteligente de curto prazo, mas as empresas de tecnologia não sobreviverão a longo prazo se forem vistas como tendo uma agenda oculta de IA que está em desacordo com o interesse público. E se essas empresas não abrirem voluntariamente, os engenheiros de IA devem dar a volta aos seus chefes e conversar diretamente com os próprios formuladores de políticas e jornalistas.
Terceiro, a mídia de notícias precisa fazer um trabalho melhor para explicar o progresso da IA para não especialistas. Muitas vezes, os jornalistas – e admito que tenho sido uma parte culpada aqui – confiam em taquigrafias de ficção científica desatualizadas para traduzir o que está acontecendo na IA para o público em geral. Às vezes, comparamos grandes modelos de linguagem com Skynet e HAL 9000 e achatamos avanços promissores de aprendizado de máquina em pânico “Os robôs estão chegando!” manchetes que achamos que vão ressoar com os leitores. Ocasionalmente, traímos nossa ignorância ilustrando artigos sobre modelos de IA baseados em software com fotos de robôs de fábrica baseados em hardware – um erro tão inexplicável quanto colocar uma foto de um BMW em uma história sobre bicicletas.
Em um sentido amplo, a maioria das pessoas pensa em IA de forma restrita no que se refere a nós – isso vai levar meu trabalho? É melhor ou pior do que eu na Habilidade X ou na Tarefa Y? – em vez de tentar entender todas as maneiras pelas quais a IA está evoluindo e o que isso pode significar para o nosso futuro.
Farei minha parte, escrevendo sobre IA em toda a sua complexidade e estranheza sem recorrer a hipérboles ou tropos de Hollywood. Mas todos nós precisamos começar a ajustar nossos modelos mentais para abrir espaço para as novas e incríveis máquinas em nosso meio.
No Comment! Be the first one.