domingo, novembro 24, 2024

Não, a IA do Google não é consciente

Deve ler

de acordo com História de abrir os olhos No Washington Post no sábado, um engenheiro do Google disse que, após centenas de interações com um sofisticado sistema de inteligência artificial inédito chamado lambdaAcredita-se que o programa atingiu um nível de conscientização.

Em entrevistas e declarações públicas, muitos na comunidade de IA descartaram as alegações do engenheiro, enquanto alguns apontaram que sua história destaca como a tecnologia pode levar as pessoas a atribuir características humanas a ela. Mas pode-se argumentar que a crença de que a IA do Google pode ser consciente destaca nossos medos e expectativas sobre o que essa tecnologia pode fazer.

LaMDA, que significa Language Model for Dialog Applications, é um dos vários sistemas de IA de grande escala que foram treinados em grandes trechos de texto da Internet e podem responder a solicitações escritas. Eles são encarregados, essencialmente, de encontrar padrões e prever qual palavra ou palavras devem vir a seguir. Tais sistemas tornaram-se cada vez mais bom respondendo a perguntas e escrevendo de maneiras que podem parecer convincentemente humanas – e o próprio Google LaMDA apresentou em maio passado em uma postagem no blog Como um, ele pode “se envolver de maneira fluida em torno de um número aparentemente infinito de tópicos”. Mas os resultados também podem ser ridículos, estranhos, irritantes e propensos à distração.

O engenheiro Blake Lemoine teria dito ao Washington Post que compartilhou a evidência com o Google de que Lambda estava consciente, mas a empresa não concordou. Em um comunicado, o Google disse na segunda-feira que sua equipe, que inclui especialistas em ética e tecnólogos, “revisou as preocupações de Blake de acordo com nossos princípios de IA e informou-o de que as evidências não apoiam suas alegações”.

Em 6 de junho, Lemoine postou no Medium que o Google o havia colocado em licença administrativa remunerada “em conexão com uma investigação de preocupações éticas sobre inteligência artificial que eu vinha levantando dentro da empresa” e que ele poderia ser demitido “em breve”. (Ele mencionou a experiência de Margaret Mitchell, que era a líder da equipe ética de IA do Google até Google o lançou no início de 2021 Depois de ser franco sobre No final de 2020, Timnit Gebro, então co-líder, sairá. Gebru foi demitida após brigas internas, incluindo uma relacionada a um trabalho de pesquisa que pedia à liderança de IA da empresa que desistisse de considerar a oferta em uma conferência ou que seu nome fosse removido dela.)

Um porta-voz do Google confirmou que Lemoine permanece em licença administrativa. De acordo com o The Washington Post, ele recebeu licença por violar a política de confidencialidade da empresa.

READ  Dave Calhoun, CEO da Boeing, admite que a cultura está “longe de ser perfeita”

Lemoine não estava disponível para comentar na segunda-feira.

O surgimento contínuo de poderosos programas de computação treinados em big data profundo levantou preocupações sobre a ética que rege o desenvolvimento e o uso dessa tecnologia. E, às vezes, os desenvolvimentos são vistos da perspectiva do que pode acontecer, em vez do que é possível atualmente.

As respostas da comunidade de IA ao experimento de Lemoine ecoaram nas mídias sociais no fim de semana e geralmente chegaram à mesma conclusão: a IA do Google não está nem perto da consciência. Abiba Birhani, Membro Sênior Confiável em Inteligência Artificial da Mozilla, chilro No domingo, “Entramos em uma nova era de ‘esta rede neural consciente’ e desta vez será preciso muita energia para refutá-la”.
Gary Marcus, fundador e CEO da Geometric Intelligence, vendida pela Uber, e autor de livros como “Rebooting AI: Building Artificial Intelligence We Can Trust”, descreveu a ideia de LaMDA como consciente “Besteira em palafitas” em um tweet. escreveu rapidamente Postagem do blog Observando que todos esses sistemas de IA realizam correspondência de padrões extraindo de bancos de dados massivos de linguagem.

Em entrevista na segunda-feira à CNN Business, Marcus disse que a melhor maneira de pensar em sistemas como o LaMDA é como uma “versão glorificada” de um programa de preenchimento automático que você pode usar para prever a próxima palavra em uma mensagem de texto. Se você escrever “Estou com muita fome, então quero ir”, ele pode sugerir “restaurante” como sua próxima palavra. Mas esta é uma previsão feita usando estatísticas.

“Ninguém deve pensar que o preenchimento automático, mesmo com esteróides, é consciente”, disse ele.

Em entrevista a Gebru, fundador e CEO da Instituto de Pesquisa em Inteligência Artificial DistribuídaDAIR, ou DAIR, Lemoine disse que é vítima de muitas empresas alegando que a inteligência artificial consciente ou inteligência artificial geral – uma ideia que se refere à inteligência artificial que pode realizar tarefas semelhantes às humanas e interagir conosco de maneiras significativas – não está longe .
O Google ofereceu ao professor US$ 60.000, mas ele recusou.  Aqui está o porquê
Por exemplo, Ilya Sutskiver, cofundadora e cientista-chefe da OpenAI, observa, chilro Em fevereiro, “as grandes redes neurais de hoje podem estar um pouco conscientes”. E na semana passada, o vice-presidente do Google Research e colega Blaise Aguera y Arcas Escrito em um artigo para The Economist que quando ele começou a usar o LaMDA no ano passado, “eu sentia cada vez mais que estava falando sobre algo inteligente”. (Este artigo agora inclui uma nota do editor observando que Lemoine foi “colocado em licença depois de afirmar em uma entrevista ao Washington Post que o LaMDA, o chatbot do Google, havia se tornado ‘consciente'”.)

“O que acontece é que há uma corrida para usar mais dados, mais computação, para dizer que você criou essa coisa genérica que todos conhecem, responde a todas as suas perguntas ou o que quer que seja, e essa é a bateria que você está tocando”, Gebru disse. . “Então, como você fica surpreso quando essa pessoa leva isso ao extremo?”

READ  Trabalhadores noruegueses de petróleo e gás iniciaram uma greve e cortaram a produção

Em sua declaração, o Google observou que o LaMDA passou por 11 “revisões distintas de princípios de IA”, bem como “pesquisas e testes rigorosos” em relação à qualidade, segurança e capacidade de apresentar dados baseados em fatos. “É claro que alguns na comunidade de IA mais ampla estão estudando o potencial de longo prazo da IA ​​consciente ou geral, mas não faz sentido incorporar modelos de conversação atuais, que não são conscientes”, disse a empresa.

“Centenas de pesquisadores e engenheiros conversaram com lambda, e não temos conhecimento de mais ninguém fornecendo afirmações tão extensas ou incorporando lambda como Blake fez”, disse o Google.

Últimos artigos