Tecnologia
1º de maio de 2023 | 3:34 da manhã
Muito antes de Elon Musk e o cofundador da Apple, Steve Wozniak, assinarem uma carta alertando que a inteligência artificial representa “riscos profundos” para a humanidade, o físico teórico britânico Stephen Hawking alertou contra a tecnologia de rápido crescimento.
“O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana”, disse Hawking à BBC em 2014.
Hawking morreu em 2018 aos 76 anos, depois de sofrer de esclerose lateral amiotrófica (ELA) por mais de 55 anos. Embora tenha visões críticas sobre IA, ele também usa uma forma básica de tecnologia para se comunicar. Sua doença, que enfraquece seus músculos e exige que Hocking use uma cadeira de rodas.
Em 1985, Hawking não conseguia falar e contava com vários meios de comunicação, incluindo um dispositivo gerador de fala com tecnologia Intel que lhe permitia usar movimentos faciais para selecionar palavras ou letras que eram integradas à fala.
Os comentários de Hawking à BBC em 2014 foram em resposta a uma pergunta sobre a revisão da tecnologia de voz, que ele acreditava que poderia significar o fim da raça humana. Ele disse à BBC que as formas mais básicas de IA já se mostraram poderosas, mas construir sistemas que rivalizam ou superam a inteligência humana seria catastrófico para a raça humana.
“Ele simplesmente decola e se remodela em um ritmo cada vez maior”, disse ele.
“Os humanos, limitados pela lenta evolução biológica, não podem competir e serão superados”, acrescentou Hawking.
Alguns meses após sua morte, o último livro de Hawking chegou ao mercado. Seu livro intitulado “Brief Answers to Big Questions” forneceu aos leitores respostas para suas perguntas mais frequentes. O livro Science revelou o argumento de Hawking contra a existência de Deus, como os humanos poderiam um dia viver no espaço e seus medos sobre a engenharia genética e o aquecimento global.
A inteligência artificial liderou sua lista de “grandes questões”, argumentando que dentro de 100 anos os computadores “ultrapassariam os humanos em inteligência”.
“Podemos estar enfrentando uma explosão de inteligência que resultará na inteligência das máquinas superando a dos caracóis”, escreveu ele.
Ele argumentou que os computadores deveriam ser treinados para se conectar com alvos humanos e que não levar a sério os riscos associados à IA foi “nosso pior erro”.
“É tentador descartar a ideia de máquinas superinteligentes como mera ficção científica, mas isso é um erro – e é o nosso pior erro de todos os tempos.”
Os comentários de Hawking foram repetidos este ano em uma carta divulgada em março pelo gigante da tecnologia Elon Musk e pelo cofundador da Apple, Steve Wozniak. Os dois líderes tecnológicos, juntamente com milhares de outros especialistas, assinaram uma carta pedindo uma moratória de pelo menos seis meses no desenvolvimento de sistemas de IA mais poderosos do que o chatbot GPT-4 da OpenAI.
“Sistemas de IA com inteligência competitiva podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA”, diz a carta publicada pela organização sem fins lucrativos Future of Life.
O ChatGPT da OpenAI tornou-se a base de usuários de crescimento mais rápido em janeiro, com 100 milhões de usuários ativos mensais, à medida que pessoas de todo o mundo correram para adotar o chatbot, que simula conversas semelhantes a humanos com base em determinados estímulos. O laboratório lançou a última iteração da plataforma, GPT-4, em março.
Apesar dos apelos para suspender a pesquisa em laboratórios de IA que trabalham com tecnologia que supera o GPT-4, o lançamento do sistema serviu como um divisor de águas que reverberou na indústria de tecnologia e levou várias empresas a competir no desenvolvimento de seus próprios sistemas de IA.
O Google também está renovando seu mecanismo de busca e criando um novo que depende de IA; A Microsoft criou um “novo motor de busca Bing” descrito como o “co-piloto para a web alimentado por IA” dos usuários; E Musk disse que estava lançando um sistema de IA rival que ele descreveu como “buscando a verdade máxima”.
No ano anterior à sua morte, Hawking aconselhou que o mundo “deve aprender como se preparar e evitar os riscos potenciais” associados à IA, argumentando que os sistemas “podem ser o pior evento da história de nossa civilização”. No entanto, ele observou que o futuro ainda é desconhecido e a IA pode ser útil para a humanidade se for devidamente treinada.
“O sucesso na criação de IA competente pode ser o maior evento na história de nossa civilização. Ou o pior. Não sabemos. Portanto, não podemos saber se seremos infinitamente ajudados pela IA ou ignorados, marginalizados ou mesmo destruídos”, disse Hawking em 2017. durante um discurso na conferência técnica Web Summit em Portugal.
aceite mais…
{{#isDisplay}}
{{/isDisplay}}{{#isAniviewVideo}}
{{/isAniviewVideo}}{{#isSRVideo}}
{{/isSRVideo}}
“Guru do álcool. Analista. Defensor da comida. Extremo aficionado por bacon. Totalmente conhecedor da internet. Viciado em cultura pop. Desbravador de viagens sutilmente encantador.”