Mais de 1.000 líderes e pesquisadores de tecnologia, incluindo Elon Musk, pediram aos laboratórios de inteligência artificial que suspendessem o desenvolvimento de sistemas mais avançados. uma carta aberta As ferramentas de IA apresentam “riscos profundos para a sociedade e a humanidade”.
De acordo com a carta publicada na quarta-feira, os desenvolvedores de IA estão “presos em uma corrida desenfreada para criar e implantar mentes digitais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. Future of Life Institute, um grupo sem fins lucrativos.
Outros que assinaram a carta incluem o cofundador da Apple, Steve Wozniak; Andrew Yang, empresário e candidato presidencial dos EUA em 2020; e Rachel Bronson, presidente do Bulletin of the Atomic Scientists, que define o relógio do juízo final.
“Essas coisas estão moldando nosso mundo”, disse Gary Marcus, empresário e acadêmico que há muito reclama de falhas nos sistemas de IA, em uma entrevista. “Temos uma tempestade perfeita de irresponsabilidade corporativa, adoção generalizada, falta de regulamentação e muitas incógnitas.”
A IA capacita chatbots como ChatGPT, Bing da Microsoft e Bard do Google, que podem realizar conversas semelhantes às humanas, criar artigos sobre uma variedade infinita de tópicos e executar tarefas complexas como escrever código de computador.
O impulso para criar chatbots mais poderosos levou a uma corrida que pode determinar os próximos líderes da indústria de tecnologia. Mas essas ferramentas foram criticadas por obter detalhes errados e capazes de espalhar desinformação.
A carta aberta pede uma moratória no desenvolvimento de sistemas de IA mais poderosos que o GPT-4, disse o Sr. O chatbot foi lançado este mês pela OpenAI, um laboratório de pesquisa cofundado por Musk. A pausa dará aos sistemas de IA tempo para implementar “protocolos de segurança compartilhados”, disse a carta. “Se tal moratória não puder ser implementada rapidamente, os governos devem intervir e impor uma moratória”, acrescentou.
O desenvolvimento de poderosos sistemas de IA deve prosseguir “somente se estivermos convencidos de que seus efeitos serão positivos e seus riscos administráveis”.
“A humanidade pode desfrutar de um futuro próspero com IA”, disse a carta. “Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um ‘verão de IA’ no qual podemos colher os frutos, projetar esses sistemas para o claro benefício de todos e dar à sociedade uma oportunidade de se adaptar.”
O GPT-4 é o que os pesquisadores de IA chamam de rede neural, um tipo de sistema matemático que aprende habilidades analisando dados. As redes neurais são a mesma tecnologia que assistentes digitais como Siri e Alexa usam para reconhecer comandos falados e carros autônomos usam para reconhecer pedestres.
Em 2018, empresas como Google e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia, registros de bate-papo e outras informações extraídas da web. As redes são chamadas de Large Language Models ou LLMs
Ao anotar bilhões de padrões em todo esse texto, os LLMs aprendem a criar textos por conta própria, incluindo tweets, trabalhos de conclusão de curso e programas de computador. Eles podem até manter uma conversa. Ao longo dos anos, a OpenAI e outras empresas desenvolveram LLMs que aprendem cada vez mais com os dados.
Isso melhorou suas capacidades, mas os sistemas ainda cometem erros. Freqüentemente, eles interpretam mal os fatos e criam informações sem aviso, um fenômeno que os pesquisadores chamam de “alucinações”. Como os computadores fornecem todas as informações com total confiança, muitas vezes é difícil para as pessoas dizerem o que é certo e o que é errado.
Os especialistas temem que os malfeitores possam usar esses sistemas para espalhar desinformação com maior velocidade e eficiência do que no passado. Eles acreditam que isso pode até ser usado para induzir o comportamento de pessoas na Internet.
Antes do lançamento do GPT-4, a OpenAI pediu a pesquisadores externos para testar aplicativos potencialmente perigosos do sistema. Pesquisadores mostraram que comprar armas de fogo ilegais on-line, descrever maneiras de fabricar produtos perigosos a partir de itens domésticos e escrever postagens no Facebook para convencer as mulheres de que o aborto não é seguro pode levar ao vício em drogas.
Eles também descobriram que o sistema poderia usar o TaskRabbit para recrutar um humano pela web e derrotar o teste CAPTCHA amplamente usado para identificar bots online. Quando o humano perguntou se o sistema era um “robô”, o sistema disse que era uma pessoa cega.
Após as alterações do OpenAI, o GPT-4 não faz mais isso.
Ao longo dos anos, muitos pesquisadores de IA, acadêmicos e executivos de tecnologia, o Sr. Musk, inclusive, temia que os sistemas de IA pudessem causar danos ainda maiores. Alguns fazem parte de uma comunidade on-line mais ampla chamada racionalistas, ou altruístas eficientes, que acreditam que a IA pode acabar com a humanidade.
A carta foi conduzida pelo Future of Life Institute, uma organização dedicada a pesquisar riscos existenciais para a humanidade, que há muito alerta sobre os perigos da inteligência artificial. Mas foi assinado por um grupo diversificado de pessoas da indústria e da academia.
Embora alguns dos signatários da carta tenham repetidamente expressado preocupação de que a IA possa destruir a humanidade, o Sr. Outros, incluindo Marcus, estão mais preocupados com seus riscos de curto prazo, incluindo a disseminação de desinformação e o risco de as pessoas confiarem nesses sistemas. Para aconselhamento médico e emocional.
A carta foi assinada pelo Sr. Marcus assinou a carta, dizendo que “mostra quantas pessoas estão profundamente preocupadas com o que está acontecendo”. Ele acredita que a carta será um importante ponto de virada. “Acho que este é um momento muito importante na história da IA – talvez da humanidade”, disse ele.
No entanto, ele reconheceu que pode ser difícil convencer os signatários da carta, a comunidade mais ampla de empresas e pesquisadores, a impor uma proibição. “A carta não está correta”, disse ele. “Mas o espírito está certo.”
“Guru do álcool. Analista. Defensor da comida. Extremo aficionado por bacon. Totalmente conhecedor da internet. Viciado em cultura pop. Desbravador de viagens sutilmente encantador.”
More Stories
Colin Jost Platt no jantar dos correspondentes da Casa Branca
Rumores de eventos da Apple: chip iPad Pro M4 e novo Apple Pencil com feedback tátil
Tornados devastam partes de Nebraska e Iowa