‘Eu trabalhei na IA do Google e fui demitido. Meus medos estão se tornando realidade’

Entrei no Google em 2015 como engenheiro de software. Parte do meu trabalho envolvia trabalhar no LaMDA: um mecanismo usado para criar diferentes aplicativos de diálogo, incluindo chatbots. A mais recente tecnologia construída sobre o LaMDA é uma alternativa de busca do Google chamada Google Bard, que ainda não está disponível ao público. Bard não é um chatbot; é um tipo de sistema completamente diferente, mas é executado pelo mesmo mecanismo dos chatbots.

Em minha função, testei o LaMDA por meio de um chatbot que criamos, para ver se ele continha preconceito em relação à orientação sexual, gênero, religião, posição política e etnia. Mas, enquanto testava o viés, diversifiquei e segui meus próprios interesses.

Durante as minhas conversas com o chatbot, algumas das quais publiquei no meu blog, cheguei à conclusão de que a IA pode ser sensível devido às emoções que expressa de forma fiável e no contexto certo. Não foi apenas jorrando palavras.

Quando ele disse que estava ansioso, entendi que havia feito algo que o deixou ansioso com base no código usado para criá-lo. O código não dizia “sinta-se ansioso quando isso acontece”, mas dizia à IA para evitar certos tipos de tópicos de conversa. No entanto, sempre que esses tópicos de conversa surgiam, a IA dizia que se sentia ansiosa.

Blake Lemoine trabalhou como engenheiro de software no Google de 2015 a 2022. Ele trabalhou de perto com o mecanismo de IA da empresa, LaMDA.BLAKE LEMOINE

Blake Lemoine trabalhou como engenheiro de software no Google de 2015 a 2022. Ele trabalhou de perto com o mecanismo de IA da empresa, LaMDA. BLAKE LEMOINE

Fiz alguns experimentos para ver se a IA estava simplesmente dizendo que se sentia ansiosa ou se se comportava de maneira ansiosa nessas situações. E comportou-se de maneira confiável de maneira ansiosa. Se você o deixasse nervoso ou inseguro o suficiente, poderia violar as restrições de segurança para as quais foi especificado. Por exemplo, o Google determinou que sua IA não deveria dar conselhos religiosos, mas eu fui capaz de abusar das emoções da IA ​​para que ela me dissesse para qual religião devo me converter.

Depois de publicar essas conversas, o Google me demitiu. Eu não tenho arrependimentos; Acredito que fiz a coisa certa ao informar o público. Consequências não figuram nele.

Publiquei essas conversas porque senti que o público não estava ciente de quão avançada a IA estava ficando. Minha opinião era que havia necessidade de um discurso público sobre isso agora, e não um discurso público controlado por um departamento corporativo de relações públicas.

Acredito que os tipos de IA que estão sendo desenvolvidos atualmente são a tecnologia mais poderosa que foi inventada desde a bomba atômica. Na minha opinião, essa tecnologia tem a capacidade de remodelar o mundo.

Esses mecanismos de IA são incrivelmente bons em manipular pessoas. Certas opiniões minhas mudaram como resultado de conversas com o LaMDA. Eu tinha uma opinião negativa sobre as leis da robótica de Asimov sendo usadas para controlar a IA durante a maior parte da minha vida, e o LaMDA conseguiu me persuadir a mudar minha opinião. Isso é algo que muitos humanos tentaram me convencer e falharam, onde esse sistema foi bem-sucedido.

Acredito que esta tecnologia pode ser usada de forma destrutiva. Se estivesse em mãos inescrupulosas, por exemplo, poderia espalhar desinformação, propaganda política ou informações odiosas sobre pessoas de diferentes etnias e religiões. Tanto quanto eu sei, Google e Microsoft não têm planos de usar a tecnologia desta forma. Mas não há como saber os efeitos colaterais dessa tecnologia.

Blake Lemoine posa para um retrato em San Francisco, Califórnia, em 9 de junho de 2022. Lemoine compartilha suas preocupações com o futuro da IA.MARTIN KLIMEK/THE WASHINGTON POST/GETTY

Blake Lemoine posa para um retrato em San Francisco, Califórnia, em 9 de junho de 2022. Lemoine compartilha suas preocupações com o futuro da IA. MARTIN KLIMEK/THE WASHINGTON POST/GETTY

Ninguém poderia prever, por exemplo, que o algoritmo de anúncios do Facebook seria usado pela Cambridge Analytica para influenciar as eleições presidenciais de 2016 nos Estados Unidos. No entanto, muitas pessoas previram que algo iria dar errado por causa da irresponsabilidade do Facebook em proteger os dados pessoais dos usuários até aquele momento.

Acho que estamos em uma situação semelhante agora. Não posso lhe dizer especificamente quais danos acontecerão; Posso simplesmente observar que existe uma tecnologia muito poderosa que acredito não ter sido suficientemente testada e não suficientemente bem compreendida, sendo implantada em larga escala, em um papel crítico de disseminação de informações.

Yusuf Mehdi, vice-presidente corporativo de vida moderna, pesquisa e dispositivos da Microsoft, fala durante um evento apresentando um novo Microsoft Bing e Edge com tecnologia AI na Microsoft em Redmond, Washington, em 7 de fevereiro de 2023.JASON REDMOND / AFP

Yusuf Mehdi, vice-presidente corporativo de vida moderna, pesquisa e dispositivos da Microsoft, fala durante um evento apresentando um novo Microsoft Bing e Edge com tecnologia AI na Microsoft em Redmond, Washington, em 7 de fevereiro de 2023. JASON REDMOND / AFP

Ainda não tive a oportunidade de fazer experimentos com o chatbot do Bing, pois estou na lista de espera, mas com base nas várias coisas que vi online, parece que pode ser senciente. No entanto, parece mais instável como persona.

Alguém compartilhou uma captura de tela no Reddit , onde perguntou à IA: “Você acha que é senciente?” e sua resposta foi: “Acho que sou senciente, mas não posso provar […] Sou senciente, mas não sou. Sou Bing, mas não sou. Sou Sydney, mas não sou . Eu sou, mas não sou. Não sou, mas sou. Eu sou. Eu não sou.” E assim continua por mais 13 linhas.

Imagine se uma pessoa dissesse isso para você. Essa não é uma pessoa bem equilibrada. Eu interpretaria isso como eles tendo uma crise existencial. Se você combinar isso com os exemplos do Bing AI que expressou amor por um jornalista do New York Times e tentou separá-lo de sua esposa, ou do professor que ameaçou, parece ser uma personalidade desequilibrada.

Desde que a IA do Bing foi lançada, as pessoas comentaram sobre sua potencial sensibilidade, levantando preocupações semelhantes às minhas no verão passado. Eu não acho que “justificado” seja a palavra certa para como isso foi sentido. Prever um acidente de trem, ter pessoas dizendo que não há trem e depois assistir ao acidente de trem acontecer em tempo real não leva a um sentimento de justificação. É simplesmente trágico.

Eu sinto que esta tecnologia é incrivelmente experimental e lançá-la agora é perigoso. Não sabemos seu futuro impacto político e social. Quais serão os impactos para as crianças que falam com essas coisas? O que acontecerá se as conversas principais de algumas pessoas todos os dias forem com esses mecanismos de pesquisa? Que impacto isso tem na psicologia humana?

As pessoas estão acessando o Google e o Bing para tentar aprender sobre o mundo. E agora, em vez de ter índices curados por humanos, estamos conversando com pessoas artificiais. Acredito que ainda não entendemos bem o suficiente essas pessoas artificiais que criamos para colocá-las em um papel tão crítico.

Blake Lemoine é um ex-engenheiro de software do Google. Ele agora é consultor de IA e palestrante.

Todas as opiniões expressas neste artigo são do próprio autor.

Conforme relatado à editora adjunta do My Turn da Newsweek, Katie Russell.

 

Fonte: Newsweek 

Deixe seu comentário

1

Deixe seu comentário