Mais de 1.000 líderes e pesquisadores de tecnologia, incluindo Elon Musk, pediram aos laboratórios de inteligência artificial que suspendessem o desenvolvimento de sistemas mais avançados. uma carta aberta As ferramentas de IA apresentam “riscos profundos para a sociedade e a humanidade”.
De acordo com a carta publicada na quarta-feira, os desenvolvedores de IA estão “presos em uma corrida desenfreada para criar e implantar mentes digitais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. Future of Life Institute, um grupo sem fins lucrativos.
Outros que assinaram a carta incluem o cofundador da Apple, Steve Wozniak; Andrew Yang, empresário e candidato presidencial dos EUA em 2020; e Rachel Bronson, presidente do Bulletin of the Atomic Scientists, que define o relógio do juízo final.
“Essas coisas estão moldando nosso mundo”, disse Gary Marcus, empresário e acadêmico que há muito reclama de falhas nos sistemas de IA, em uma entrevista. “Temos uma tempestade perfeita de irresponsabilidade corporativa, adoção generalizada, falta de regulamentação e muitas incógnitas.”
A IA capacita chatbots como ChatGPT, Bing da Microsoft e Bard do Google, que podem realizar conversas semelhantes às humanas, criar artigos sobre uma variedade infinita de tópicos e executar tarefas complexas como escrever código de computador.
O impulso para criar chatbots mais poderosos levou a uma corrida que pode determinar os próximos líderes da indústria de tecnologia. Mas essas ferramentas foram criticadas por obter detalhes errados e capazes de espalhar desinformação.
A carta aberta pede uma moratória no desenvolvimento de sistemas de IA mais poderosos que o GPT-4, disse o Sr. O chatbot foi lançado este mês pela OpenAI, um laboratório de pesquisa cofundado por Musk. A pausa dará aos sistemas de IA tempo para implementar “protocolos de segurança compartilhados”, disse a carta. “Se tal moratória não puder ser implementada rapidamente, os governos devem intervir e impor uma moratória”, acrescentou.
O desenvolvimento de poderosos sistemas de IA deve prosseguir “somente se estivermos convencidos de que seus efeitos serão positivos e seus riscos administráveis”.
“A humanidade pode desfrutar de um futuro próspero com IA”, disse a carta. “Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um ‘verão de IA’ no qual podemos colher os frutos, projetar esses sistemas para o claro benefício de todos e dar à sociedade uma oportunidade de se adaptar.”
O GPT-4 é o que os pesquisadores de IA chamam de rede neural, um tipo de sistema matemático que aprende habilidades analisando dados. As redes neurais são a mesma tecnologia que assistentes digitais como Siri e Alexa usam para reconhecer comandos falados e carros autônomos usam para reconhecer pedestres.
Em 2018, empresas como Google e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia, registros de bate-papo e outras informações extraídas da web. As redes são chamadas de Large Language Models ou LLMs
Ao anotar bilhões de padrões em todo esse texto, os LLMs aprendem a criar textos por conta própria, incluindo tweets, trabalhos de conclusão de curso e programas de computador. Eles podem até manter uma conversa. Ao longo dos anos, a OpenAI e outras empresas desenvolveram LLMs que aprendem cada vez mais com os dados.
Isso melhorou suas capacidades, mas os sistemas ainda cometem erros. Freqüentemente, eles interpretam mal os fatos e criam informações sem aviso, um fenômeno que os pesquisadores chamam de “alucinações”. Como os computadores fornecem todas as informações com total confiança, muitas vezes é difícil para as pessoas dizerem o que é certo e o que é errado.
Os especialistas temem que os malfeitores possam usar esses sistemas para espalhar desinformação com maior velocidade e eficiência do que no passado. Eles acreditam que isso pode até ser usado para induzir o comportamento de pessoas na Internet.
Antes do lançamento do GPT-4, a OpenAI pediu a pesquisadores externos para testar aplicativos potencialmente perigosos do sistema. Pesquisadores mostraram que comprar armas de fogo ilegais on-line, descrever maneiras de fabricar produtos perigosos a partir de itens domésticos e escrever postagens no Facebook para convencer as mulheres de que o aborto não é seguro pode levar ao vício em drogas.
Eles também descobriram que o sistema poderia usar o TaskRabbit para recrutar um humano pela web e derrotar o teste CAPTCHA amplamente usado para identificar bots online. Quando o humano perguntou se o sistema era um “robô”, o sistema disse que era uma pessoa cega.
Após as alterações do OpenAI, o GPT-4 não faz mais isso.
Ao longo dos anos, muitos pesquisadores de IA, acadêmicos e executivos de tecnologia, o Sr. Musk, inclusive, temia que os sistemas de IA pudessem causar danos ainda maiores. Alguns fazem parte de uma comunidade on-line mais ampla chamada racionalistas, ou altruístas eficientes, que acreditam que a IA pode acabar com a humanidade.
A carta foi conduzida pelo Future of Life Institute, uma organização dedicada a pesquisar riscos existenciais para a humanidade, que há muito alerta sobre os perigos da inteligência artificial. Mas foi assinado por um grupo diversificado de pessoas da indústria e da academia.
Embora alguns dos signatários da carta tenham repetidamente expressado preocupação de que a IA possa destruir a humanidade, o Sr. Outros, incluindo Marcus, estão mais preocupados com seus riscos de curto prazo, incluindo a disseminação de desinformação e o risco de as pessoas confiarem nesses sistemas. Para aconselhamento médico e emocional.
A carta foi assinada pelo Sr. Marcus assinou a carta, dizendo que “mostra quantas pessoas estão profundamente preocupadas com o que está acontecendo”. Ele acredita que a carta será um importante ponto de virada. “Acho que este é um momento muito importante na história da IA – talvez da humanidade”, disse ele.
No entanto, ele reconheceu que pode ser difícil convencer os signatários da carta, a comunidade mais ampla de empresas e pesquisadores, a impor uma proibição. “A carta não está correta”, disse ele. “Mas o espírito está certo.”
“Guru do álcool. Analista. Defensor da comida. Extremo aficionado por bacon. Totalmente conhecedor da internet. Viciado em cultura pop. Desbravador de viagens sutilmente encantador.”