Lemoine trabalhou para uma organização de inteligência artificial responsável no Google e, como parte de seu trabalho, começou a falar com o LaMDA, o sistema de inteligência artificial da empresa para a construção de chatbots, no outono. Ele passou a acreditar que a tecnologia estava consciente após a gravação para testar se a IA poderia usar discurso discriminatório ou de ódio.
Em um comunicado, o porta-voz do Google, Brian Gabriel, disse que a empresa leva o desenvolvimento de IA a sério e revisou o LaMDA 11 vezes, além de publicar um artigo de pesquisa detalhando os esforços para o desenvolvimento responsável.
“Se um funcionário compartilha preocupações sobre nosso trabalho, como Blake fez, nós as revisamos amplamente”, acrescentou. “Constatamos que as alegações de Blake de que o LaMDA é sensível são completamente infundadas e trabalhamos para esclarecer isso com ele por vários meses”.
Atribuo as discussões à cultura da empresa aberta.
“É lamentável que, apesar de seu envolvimento prolongado no assunto, Blake ainda opte por violar consistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto”, acrescentou Gabriel. “Continuaremos nosso rigoroso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake.”
Tiroteio em Lemoine foi relatado pela primeira vez em Boletim de tecnologia grande.
limão entrevistas com lambda Isso desencadeou uma extensa discussão sobre os recentes avanços em inteligência artificial, um mal-entendido geral de como esses sistemas funcionam e responsabilidade corporativa. O Google demitiu os chefes de seu departamento de IA ética, Margaret Mitchell e Timnit Gibrudepois Cuidado com os perigos associados a esta tecnologia.
O LaMDA usa os modelos de grande linguagem mais avançados do Google, um tipo de inteligência artificial que reconhece e cria texto. Os pesquisadores dizem que esses sistemas não podem entender a linguagem ou o significado. Mas eles podem produzir uma fala enganosa que se parece com a fala humana porque são treinados em grandes quantidades de dados rastreados da internet para prever a próxima palavra mais provável em uma frase.
Depois que LaMDA falou com Lemoine sobre a personagem e seus direitos, ele começou a investigar mais. Em abril, ele compartilhou um documento do Google com os CEOs intitulado “O LaMDA é sensível?” que incluiu algumas de suas conversas com LaMDA, nas quais ele alegou estar consciente. Dois executivos do Google consideraram suas alegações e as rejeitaram.
Lemoine foi anteriormente colocado em licença administrativa remunerada em junho por violar a política de confidencialidade da empresa. O engenheiro, que passou a maior parte de seus sete anos no Google trabalhando em pesquisas proativas, incluindo algoritmos de personalização, disse que está considerando a possibilidade de criar sua própria empresa de IA focada em videogames colaborativos para contar histórias.
“Aficionado por música. Jogador. Praticante de álcool. Leitor profissional. Estudioso da web.”