quinta-feira, dezembro 5, 2024

A investigação do Tesla Autopilot foi encerrada depois que os federais encontraram 13 acidentes fatais relacionados ao uso indevido

Deve ler

Créditos da imagem: Tesla

A Administração Nacional de Segurança no Trânsito Rodoviário encerrou uma longa investigação sobre o sistema Autopilot da Tesla depois de analisar centenas de acidentes envolvendo seu uso indevido, incluindo 13 que foram fatais e “vários dos quais envolveram ferimentos graves”.

Ao mesmo tempo, a NHTSA está abrindo uma nova investigação para avaliar se a correção de recall do piloto automático que a Tesla implementou em dezembro foi eficaz o suficiente.

O Escritório de Investigação de Defeitos da NHTSA disse documentos Ele divulgou na sexta-feira que havia concluído “um extenso conjunto de trabalho” que mostrava evidências de que “o fraco sistema de engajamento do motorista da Tesla não era adequado para as fracas capacidades operacionais do piloto automático”.

“Essa incompatibilidade criou uma séria lacuna de segurança entre as expectativas dos motoristas [Autopilot’s] “As capacidades operacionais e as verdadeiras capacidades do sistema”, escreveu a agência. “Essa lacuna levou a um uso indevido previsível e a acidentes evitáveis.”

O encerramento da investigação preliminar, iniciada em 2021, marca o fim de um dos esforços mais proeminentes do governo para auditar o software Autopilot da Tesla. No entanto, a Tesla ainda sente a pressão de diversas outras investigações.

O Departamento de Justiça também está investigando as alegações da empresa sobre a tecnologia, e o Departamento de Veículos Motorizados da Califórnia acusou a Tesla de anunciar falsamente os recursos do piloto automático e um programa piloto totalmente autônomo mais avançado. A empresa também enfrenta vários processos judiciais relacionados ao Autopilot. Enquanto isso, a Tesla agora está “caminhando até a parede em busca de autonomia”, segundo o CEO Elon Musk.

A NHTSA disse que sua investigação analisou 956 acidentes relatados até 30 de agosto de 2023. Em quase metade desses acidentes (489), a agência disse que “não havia dados suficientes para fazer uma avaliação”, o outro veículo era o culpado e o piloto automático foi encontrado não estar operando em uso ou o acidente não está relacionado à sonda.

READ  O Outlook está desativado? Milhares de usuários relataram problemas com o sistema de e-mail da Microsoft

Os 467 acidentes restantes ocorreram em três grupos, disse a NHTSA. Houve numerosos (211) acidentes em que “o plano frontal de um Tesla atingiu outro veículo ou obstrução com tempo suficiente para um condutor alerta reagir para evitar ou mitigar a colisão”. Ele disse que 145 incidentes envolveram “saída da estrada em condições de baixa tração, como estradas molhadas”. Ele disse que 111 desses acidentes envolveram “uma saída da estrada onde o sistema Autosteer foi inadvertidamente desativado por ação do motorista”.

Essas colisões “geralmente são graves porque nem o sistema nem o motorista reagem adequadamente, resultando em diferenciais de alta velocidade e resultados de colisões de alta energia”, escreveu a agência.

A Tesla pede aos condutores que prestem atenção à estrada e mantenham as mãos no volante enquanto utilizam o piloto automático, que mede através de um sensor de binário e, nos seus carros mais recentes, através de uma câmara no habitáculo. Mas a NHTSA e outros grupos de segurança dizem que esses avisos e verificações não são suficientes. Em dezembro, a Administração Nacional de Segurança no Trânsito Rodoviário disse que essas medidas eram “insuficientes para prevenir abusos”.

A Tesla concordou em emitir um recall por meio de uma atualização de software que teoricamente aumentaria o monitoramento do motorista. Mas esta atualização não parece mudar muito o Autopilot – um sentimento com o qual a NHTSA parece concordar.

Partes dessa correção de recall exigem que o proprietário “aceite”, e a Tesla permite que o motorista “reverta facilmente” algumas garantias, de acordo com a NHTSA.

A NHTSA passou quase três anos trabalhando na investigação do Autopilot e encontrou-se ou interagiu com Tesla várias vezes ao longo do processo. Conduziu muitos exames diretos dos incidentes e confiou na empresa para fornecer dados sobre eles também.

READ  OpenAI diz que Elon Musk queria “controle absoluto” da empresa

Mas a agência criticou os dados da Tesla um de Documentos de suporte.

“Lacunas nos dados telemáticos da Tesla criam incerteza em relação à taxa real em que os veículos movidos pelo piloto automático estão envolvidos em acidentes. A Tesla não tem conhecimento de todos os acidentes envolvendo o piloto automático, mesmo em acidentes graves, devido a lacunas nos relatórios”, escreveu a NHTSA remotamente. Para a agência, a Tesla “recebe em grande parte dados de acidentes apenas por meio de disparos pirotécnicos”, ou seja, quando os airbags, pré-tensores dos cintos de segurança ou recurso de mitigação de pedestres no capô do carro são ativados.

A NHTSA afirma que limitar este nível significa que a Tesla apenas coleta dados sobre cerca de 18% dos acidentes relatados à polícia. Como resultado, escreveu a NHTSA, a investigação revelou incidentes nos quais o Autopilot estava envolvido e Tesla não foi notificado via TI.

Últimos artigos