sábado, novembro 23, 2024

O início relâmpago da inteligência artificial – o que mudou de repente? Resumo do Ars Frontiers 2023 – Ars Technica

Deve ler

Mais Zoom / Em 22 de maio, Bing Edwards (esquerda) moderou um painel incluindo Paige Bailey (centro) e Haiyan Zhang (direita) para o painel Ars Frontiers 2023 intitulado “O começo relâmpago da inteligência artificial – o que mudou repentinamente?”

Ars Technica

Na segunda-feira, a Ars Technica sediou a conferência virtual Ars Frontiers. Em nossa quinta sessão, abordamos “O começo relâmpago da IA ​​– o que mudou de repente?” A pintura apresentava uma conversa com Grande Baileygerente de produto principal para modelagem generativa no Google DeepMind, W Haiyan Changgerente geral de Gaming AI no Xbox, administrado por Bing Edwards, correspondente de AI da Ars Technica.

O painel foi originalmente transmitido ao vivo e agora você pode assistir a gravação de todo o evento no YouTube. Introdução à parte “Lightning AI” Começa na marca de 2:26:05 na transmissão.

Ars Frontiers 2023 gravação de transmissão ao vivo.

Como “IA” é um termo tão vago, significando coisas diferentes em contextos diferentes, começamos a discussão examinando a definição de IA e o que ela significa para os membros do painel. “Gosto de pensar que a IA ajuda a derivar padrões de dados e usá-los para prever insights”, disse Bailey. “Não é nada mais do que extrair insights de dados e usá-los para fazer previsões e fornecer informações mais úteis.”

Zhang concordou, mas do ponto de vista do videogame, ela também vê a IA como uma força criativa em evolução. Para ela, a IA não é apenas analisar dados, detectar padrões e classificá-los. Também desenvolve habilidades em linguagem criativa, geração de imagens e codificação. Zhang acredita que esse poder transformador da IA ​​pode elevar e estimular a criatividade humana, especialmente em videogames, que ela vê como “a expressão máxima da criatividade humana”.

Em seguida, nos aprofundamos na pergunta-chave do painel: o que mudou e levou a essa nova era da IA? É tudo apenas hype, talvez baseado na alta visibilidade do ChatGPT, ou há algum grande avanço tecnológico que nos trouxe esta nova onda?

READ  A mais recente tela 4K de 32 polegadas da LG tem uma aparência que traz uma smart TV dentro
Paige Bailey, do Google, durante sua reunião Ars Frontiers 2023 sobre inteligência artificial.
Mais Zoom / Paige Bailey, do Google, durante sua reunião Ars Frontiers 2023 sobre inteligência artificial.

Ars Technica

Zhang apontou os avanços nas tecnologias de IA e as grandes quantidades de dados agora disponíveis para treinamento: “Vimos avanços na arquitetura de modelos de modelos Transformer, bem como modelos de autoencoder recursivos, bem como a disponibilidade de grandes conjuntos de dados para treinar esses modelos depois e emparelhá-los com terceiros, a disponibilidade de hardware como GPUs e MPUs para realmente poder modelar, coletar dados e treiná-los para novos recursos de computação.”

Bailey ecoou esses sentimentos, acrescentando um aceno notável às contribuições de código aberto: “Também temos essa comunidade vibrante de criadores de código aberto que são modelos de código aberto, modelos como LLaMA, ajustados por meio de ajuste de instruções de alta qualidade e conjuntos de dados RLHF”.

Quando solicitado a explicar a importância da colaboração de código aberto para acelerar o progresso da IA, Bailey mencionou o uso generalizado de modelos de treinamento de código aberto, como PyTorch, Jax e TensorFlow. Ela também enfatizou a importância de compartilhar as melhores práticas, dizendo: “Eu definitivamente acho que esta comunidade de aprendizado de máquina só existe porque as pessoas compartilham suas ideias, opiniões e códigos”.

Quando perguntado sobre os planos do Google para modelos de código aberto, Bailey apontou para a lista Recursos de pesquisa do Google no GitHub e destacou sua parceria com a Hugging Face, a comunidade online de IA. “Não quero entregar nada que possa ir pelo cano”, disse ela.

Inteligência artificial generativa em consoles de jogos e os perigos da inteligência artificial

Haiyan Zhang, da Microsoft, durante sua reunião Ars Frontiers 2023 sobre inteligência artificial.
Mais Zoom / Haiyan Zhang, da Microsoft, durante sua reunião Ars Frontiers 2023 sobre inteligência artificial.

Ars Technica

Como parte de uma conversa sobre desenvolvimentos em hardware de IA, perguntamos a Zhang quanto tempo levaria para que modelos de IA generativos pudessem ser executados nativamente em consoles. Ela disse que estava animada com a perspectiva e observou que uma configuração de cliente de nuvem dupla pode vir primeiro: “Acho que será uma combinação de trabalho em IA para ser conclusão na nuvem e trabalhando de forma colaborativa com inferência local para dar vida às melhores experiências do jogador.”

READ  Capcom revela o personagem mais difícil e recém-chegado a projetar em Street Fighter 6

Bailey observou o progresso na redução do modelo de linguagem Meta LLaMA para ser executado em dispositivos móveis, sugerindo que um caminho semelhante pode abrir a possibilidade de executar modelos de IA também em consoles de jogos: “Eu adoraria ter um modelo de linguagem grande e altamente personalizado rodando em um dispositivo.” Portátil, ou rodando no meu console de jogos, o que provavelmente torna um chefe particularmente difícil de vencer, mas pode ser mais fácil para outra pessoa derrotar.

Para continuar, perguntamos se um modelo generativo de IA fosse executado localmente em um smartphone, isso excluiria o Google da equação? “Acho que provavelmente há espaço para uma variedade de opções”, disse Bailey. “Acho que deve haver opções disponíveis para que todas essas coisas coexistam de forma significativa”.

Ao discutir os riscos sociais dos sistemas de IA, como desinformação e deepfakes, os dois palestrantes disseram que suas empresas estão comprometidas com o uso responsável e ético da IA. “No Google, tomamos muito cuidado para garantir que os modelos que produzimos sejam responsáveis ​​e se comportem da maneira mais ética possível. E realmente integramos nossa equipe de IA responsável desde o primeiro dia, sempre que treinamos modelos para a curadoria de nossos dados, garantindo que alguns tipo de mistura é criada,” explicou Bailey. Pré-treinamento correto.

Apesar de seu entusiasmo anterior por modelos de código aberto e IA executados localmente, Bailey mencionou que os modelos de IA baseados em API executados apenas na nuvem podem ser mais seguros em geral: “Acho que há um risco significativo de uso indevido de modelos nas mãos de pessoas que podem não necessariamente entender ou não estar cientes dos riscos. Isso também é parte do motivo pelo qual às vezes ajuda preferir APIs em vez de modelos de código aberto.”

READ  Disney Pixel RPG é um jogo de aventura de 8 bits estrelado por Mickey Mouse chegando aos celulares

Como Bailey, Zhang também discutiu a abordagem da Microsoft para IA responsável, mas também observou os desafios éticos específicos dos jogos, como garantir que os recursos de IA sejam inclusivos e acessíveis.

Perguntas do público sobre inteligência artificial geral, fontes de conjuntos de dados

Imagem gerada por IA de um arquivo
Mais Zoom / Imagem gerada por IA de um “robô de autoaperfeiçoamento”.

jornada média

No final da sessão, Bailey e Zhang responderam a perguntas de nosso público, que foram enviadas por meio de comentários do YouTube e selecionadas pelo moderador. Devido à extensão das respostas e à falta de tempo, eles responderam apenas duas, mas as perguntas abordavam preocupações populares sobre inteligência artificial.

Em primeiro lugar, com referência inteligência geral artificial (AGI), que muitos definem como um agente de inteligência artificial que pode executar praticamente qualquer tarefa intelectual que um ser humano altamente qualificado pode realizar. Alguém perguntou: “Como podemos acalmar os medos da inteligência artificial geral?”

Bailey destacou o fato de que, embora a IA seja um termo “indefinido”, houve progresso na criação de um modelo que pode lidar com uma ampla gama de tarefas. “Se estamos apenas falando sobre a criação de um modelo útil em geral, estamos prestes a chegar lá”, disse Bailey. No entanto, ela expressou que o tipo de inteligência artificial geral frequentemente retratado em cenários de ficção científica “ainda está muito distante, se é que alguma vez, e é algo que nós, como indústria, precisamos prestar atenção e começar a construir operações”.

Bailey enfatizou a necessidade de recursos e salvaguardas de IA responsáveis ​​e instou o setor a trabalhar em definições mais claras de IA para ajudar os legisladores a desenvolver padrões regulatórios eficazes. Ela também abordou as preocupações sobre a substituição de empregos por IA, enfatizando que a IA provavelmente aumentará a produtividade e criará novas funções, comparando seu uso potencial a “ter um pequeno aluno de pós-graduação como parte de meu pequeno laboratório de pesquisa”.

Ecoando os sentimentos de Bailey, Chang incentivou o diálogo público sobre o impacto e o papel da IA ​​na sociedade. Eu me concentrei particularmente na tendência das pessoas de incorporar a inteligência artificial. Zhang usou o exemplo clássico do jogo pac man Para ilustrar o ponto: “Quero dizer, quando você joga pac man, e esses fantasmas estão te assombrando, você está amaldiçoando esses fantasmas como se estivessem vivos, e você está projetando humanidade e personalidade nesses seres sintéticos, que são apenas algoritmos baseados em regras, certo? “

Zhang comparou nossas preocupações sobre inteligência artificial geral à nossa tendência de ver inteligência em fantasmas em um jogo de fliperama. <em> pac man </ em> 1980.” src=”https://cdn.arstechnica.net/wp-content/uploads/2013/07/287623-arc_pac_man_1.jpg” width=”640″ height=”738″ decoding=”async” class= ” amp-wp-enforced-sizes”/><figcaption class=

Chang comparou as preocupações com a inteligência artificial geral à nossa tendência de ver inteligência em fantasmas em um jogo de fliperama na década de 1980. pac man.

Na parte final da discussão, foi perguntado aos membros do painel se eles tinham alguma preocupação sobre os modelos de IA serem treinados usando dados públicos sem o consentimento dos criadores – essencialmente, coletando conteúdo da Internet para alimentar esses modelos poderosos.

Bailey forneceu um exemplo de como sua equipe no Google lidou com esse problema com o projeto Bard. Eles treinam seus modelos em dados e códigos disponíveis publicamente, mas incluíram o conceito de validação de recitação em sua ferramenta. Isso significa que, se algum código gerado corresponder a algo em um repositório público como o GitHub, o modelo fornecerá a URL de volta à fonte, atribuindo assim a atribuição ao autor e identificando a licença usada para esse código. Isso, de acordo com Bailey, também ajuda a descobrir novos projetos e funções que os usuários podem não conhecer.

“Acho que existem maneiras de fornecer crédito e também ter cuidado e incluir apenas dados que os autores incluíram expressamente sob licença para sua mistura pré-treino”, disse Bailey.

Zhang, por sua vez, citou o Bing Chat como um exemplo de produto de IA da Microsoft que cita dados públicos. Ela diz que a Microsoft projetou a plataforma Bing AI desde o início para garantir que todas as informações sejam baseadas em fontes reais da Internet e atribui todas as respostas à sua página ou fonte original: “Acho que isso é fundamental para como pensamos sobre o desenvolvimento de produtos com IA generativa. .” [at Microsoft]Com essas diferentes formas de modelos GPT, pensamos nessa inclusão e garantimos que todos os criadores e colaboradores recebam suporte e sintam que seu conteúdo é respeitado.”

Últimos artigos