Home Principais notícias Elon Musk e outros pedem uma pausa na IA, citando ‘perigos para a sociedade’

Elon Musk e outros pedem uma pausa na IA, citando ‘perigos para a sociedade’

0
Elon Musk e outros pedem uma pausa na IA, citando ‘perigos para a sociedade’

Mais de 1.000 líderes e pesquisadores de tecnologia, incluindo Elon Musk, pediram aos laboratórios de inteligência artificial que suspendessem o desenvolvimento de sistemas mais avançados. uma carta aberta As ferramentas de IA apresentam “riscos profundos para a sociedade e a humanidade”.

De acordo com a carta publicada na quarta-feira, os desenvolvedores de IA estão “presos em uma corrida desenfreada para criar e implantar mentes digitais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. Future of Life Institute, um grupo sem fins lucrativos.

Outros que assinaram a carta incluem o cofundador da Apple, Steve Wozniak; Andrew Yang, empresário e candidato presidencial dos EUA em 2020; e Rachel Bronson, presidente do Bulletin of the Atomic Scientists, que define o relógio do juízo final.

“Essas coisas estão moldando nosso mundo”, disse Gary Marcus, empresário e acadêmico que há muito reclama de falhas nos sistemas de IA, em uma entrevista. “Temos uma tempestade perfeita de irresponsabilidade corporativa, adoção generalizada, falta de regulamentação e muitas incógnitas.”

A IA capacita chatbots como ChatGPT, Bing da Microsoft e Bard do Google, que podem realizar conversas semelhantes às humanas, criar artigos sobre uma variedade infinita de tópicos e executar tarefas complexas como escrever código de computador.

O impulso para criar chatbots mais poderosos levou a uma corrida que pode determinar os próximos líderes da indústria de tecnologia. Mas essas ferramentas foram criticadas por obter detalhes errados e capazes de espalhar desinformação.

A carta aberta pede uma moratória no desenvolvimento de sistemas de IA mais poderosos que o GPT-4, disse o Sr. O chatbot foi lançado este mês pela OpenAI, um laboratório de pesquisa cofundado por Musk. A pausa dará aos sistemas de IA tempo para implementar “protocolos de segurança compartilhados”, disse a carta. “Se tal moratória não puder ser implementada rapidamente, os governos devem intervir e impor uma moratória”, acrescentou.

O desenvolvimento de poderosos sistemas de IA deve prosseguir “somente se estivermos convencidos de que seus efeitos serão positivos e seus riscos administráveis”.

“A humanidade pode desfrutar de um futuro próspero com IA”, disse a carta. “Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um ‘verão de IA’ no qual podemos colher os frutos, projetar esses sistemas para o claro benefício de todos e dar à sociedade uma oportunidade de se adaptar.”

O GPT-4 é o que os pesquisadores de IA chamam de rede neural, um tipo de sistema matemático que aprende habilidades analisando dados. As redes neurais são a mesma tecnologia que assistentes digitais como Siri e Alexa usam para reconhecer comandos falados e carros autônomos usam para reconhecer pedestres.

Em 2018, empresas como Google e OpenAI começaram a construir redes neurais que aprendiam com grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia, registros de bate-papo e outras informações extraídas da web. As redes são chamadas de Large Language Models ou LLMs

Ao anotar bilhões de padrões em todo esse texto, os LLMs aprendem a criar textos por conta própria, incluindo tweets, trabalhos de conclusão de curso e programas de computador. Eles podem até manter uma conversa. Ao longo dos anos, a OpenAI e outras empresas desenvolveram LLMs que aprendem cada vez mais com os dados.

Isso melhorou suas capacidades, mas os sistemas ainda cometem erros. Freqüentemente, eles interpretam mal os fatos e criam informações sem aviso, um fenômeno que os pesquisadores chamam de “alucinações”. Como os computadores fornecem todas as informações com total confiança, muitas vezes é difícil para as pessoas dizerem o que é certo e o que é errado.

Os especialistas temem que os malfeitores possam usar esses sistemas para espalhar desinformação com maior velocidade e eficiência do que no passado. Eles acreditam que isso pode até ser usado para induzir o comportamento de pessoas na Internet.

Antes do lançamento do GPT-4, a OpenAI pediu a pesquisadores externos para testar aplicativos potencialmente perigosos do sistema. Pesquisadores mostraram que comprar armas de fogo ilegais on-line, descrever maneiras de fabricar produtos perigosos a partir de itens domésticos e escrever postagens no Facebook para convencer as mulheres de que o aborto não é seguro pode levar ao vício em drogas.

Eles também descobriram que o sistema poderia usar o TaskRabbit para recrutar um humano pela web e derrotar o teste CAPTCHA amplamente usado para identificar bots online. Quando o humano perguntou se o sistema era um “robô”, o sistema disse que era uma pessoa cega.

Após as alterações do OpenAI, o GPT-4 não faz mais isso.

Ao longo dos anos, muitos pesquisadores de IA, acadêmicos e executivos de tecnologia, o Sr. Musk, inclusive, temia que os sistemas de IA pudessem causar danos ainda maiores. Alguns fazem parte de uma comunidade on-line mais ampla chamada racionalistas, ou altruístas eficientes, que acreditam que a IA pode acabar com a humanidade.

A carta foi conduzida pelo Future of Life Institute, uma organização dedicada a pesquisar riscos existenciais para a humanidade, que há muito alerta sobre os perigos da inteligência artificial. Mas foi assinado por um grupo diversificado de pessoas da indústria e da academia.

Embora alguns dos signatários da carta tenham repetidamente expressado preocupação de que a IA possa destruir a humanidade, o Sr. Outros, incluindo Marcus, estão mais preocupados com seus riscos de curto prazo, incluindo a disseminação de desinformação e o risco de as pessoas confiarem nesses sistemas. Para aconselhamento médico e emocional.

A carta foi assinada pelo Sr. Marcus assinou a carta, dizendo que “mostra quantas pessoas estão profundamente preocupadas com o que está acontecendo”. Ele acredita que a carta será um importante ponto de virada. “Acho que este é um momento muito importante na história da IA ​​– talvez da humanidade”, disse ele.

No entanto, ele reconheceu que pode ser difícil convencer os signatários da carta, a comunidade mais ampla de empresas e pesquisadores, a impor uma proibição. “A carta não está correta”, disse ele. “Mas o espírito está certo.”

LEAVE A REPLY

Please enter your comment!
Please enter your name here