Na quinta-feira, Tesla finalmente revelará seu protótipo de um “robotáxi” totalmente autônomo, um veículo que o CEO Elon Musk havia originalmente desejado a ser revelado em agosto e vislumbra como o futuro da marca. Certos investidores e empreendedores de tecnologia estão extremamente céticos de que a empresa consiga lançar tal produto. Mesmo que uma demonstração encenada corra bem, ela poderá levar anos para ser fabricada (como o infeliz Cybertruck), enquanto GoogleAmazon e General Motors já possuem táxis autônomos em operação.
Mas enquanto a Tesla enfrenta esses ventos contrários corporativos, ela também enfrenta possíveis consequências legais dos sistemas de assistência ao motorista que vendeu com os carros Tesla existentes: o piloto automático, que inclui recursos básicos como controle de cruzeiro e mudança automática de faixa, e a “condução totalmente autônoma”. ” (FSD), que de acordo com Tesla permite que seu veículo “dirija sozinho em quase qualquer lugar com intervenção mínima do motorista e irá melhorar continuamente”. Tanto o Administração Nacional de Segurança de Tráfego Rodoviário e o Departamento de Justiça estão investigando se a Tesla deu aos clientes e investidores a impressão de que seu software de assistência ao motorista é mais seguro do que realmente é.
Não são apenas as investigações do governo: a Tesla é citada em mais de uma dúzia de ações judiciais pendentes que alegam que ferimentos ou mortes são diretamente atribuíveis aos motoristas da Tesla que presumiram, com base na linguagem de marketing da Tesla (e nas contínuas promessas exageradas de Musk), que seus veículos eram capazes de condução totalmente autônoma quando o piloto automático ou o FSD estavam ativados. Pelo menos três desses casos estão programados para ir a julgamento no próximo ano.
“Não é exagero dizer que eles transformaram nossas vias públicas em seus laboratórios pessoais, e que todos os outros são agora cobaias no que pode ser um experimento de vida ou morte”, diz Brett Schreiber, sócio do San Diego o escritório de advocacia Singleton Schreiber, que atualmente representa “quatro famílias diferentes que sofreram ferimentos ou perderam entes queridos” em acidentes envolvendo a tecnologia de assistência ao motorista da Tesla. (A Tesla não respondeu a um pedido de comentário sobre esses processos.)
‘Tesla preparou o terreno para esta má conduta contínua’
A batalha legal mais significativa sobre os recursos de direção automatizada até agora começou com uma ação movida pela família do engenheiro da Apple Walter Huang, que morreu em 2018 quando seu Tesla atingiu o canteiro central de uma rodovia no Vale do Silício. Ele estava com o piloto automático ativado por quase 20 minutos no momento da colisão e estava viajando a mais de 70 milhas por hora, e a família de Huang alegou que o software causou o acidente. Tesla resolveu esse caso por valor não divulgado em abril deste ano, às vésperas da seleção do júri. (Em 2022, quando Musk se comprometeu a construir uma “equipe de litígios incondicional” na Tesla, ele jurou em um tweet que a empresa “nunca desistiria/resolveria um caso injusto contra nós”).
A diferença entre esse caso e os que agora estão sendo processados contra a Tesla, explica Schreiber, é que os processos mais recentes referem-se principalmente a terceiros lesados. Em ações movidas por clientes, a Tesla pode transferir a responsabilidade, apontando que seu manual do usuário instrui os motoristas que usam o piloto automático e o FSD a permanecerem alerta e no controle do veículocom as mãos no volante o tempo todo, caso seja necessária intervenção humana para evitar um acidente. Tesla ganhou pelo menos dois veredictos com base nisso, diz Schreiber. Mas o que acontece quando um Tesla “autônomo” atinge outro motorista ou pedestre?
“São casos de responsabilidade partilhada”, argumenta Schreiber. “Esses motoristas eram maus atores? Cem por cento. Mas todo ator precisa de um palco, e Tesla sempre preparou o cenário para essa má conduta contínua.” Além de representar vários clientes que buscam danos por tais incidentes, ele está colaborando com outras empresas nos EUA que trabalham em litígios semelhantes, em parte para entrar em sintonia sobre quais documentos e dados relevantes a Tesla pode ter. Ao contrário de outras empresas automóveis, diz Schreiber, “elas sabem o que estes veículos estão a fazer e onde estão localizados a cada momento, até ao milímetro, em qualquer parte do mundo”.
‘(O) Tesla Model S tinha um sistema de piloto automático que ainda estava em beta’
Um caso, atualmente agendado para julgamento em junho de 2025, descreve uma colisão de 2023 em que um motorista de Tesla – citado como réu junto com a empresa – teve a tecnologia de direção automatizada do carro acionada enquanto dirigia em uma rodovia da Califórnia a aproximadamente 65 milhas por hora . O software supostamente não tomou medidas para evitar que um motociclista parasse no trânsito à frente da pista e “batesse” nele “na velocidade da rodovia”, fazendo-o voar para o alto. O Tesla então continuou, atingindo o carro que estava na frente da motocicleta com força suficiente para fazê-lo atingir o próximo veículo à frente. O motociclista, alega o processo, “sofreu e continua a sofrer lesões graves e com risco de vida, incluindo lesão cerebral traumática grave, fraturas múltiplas e lesões em órgãos internos que requerem intervenção cirúrgica e cuidados intensivos”.
Outro processo, previsto para julgamento em março, diz respeito ao uso do piloto automático por um motorista da Tesla em 2019 em uma estrada municipal em Key Largo, Flórida. Pelo relato do motorista, ele deixou cair o telefone e tirou os olhos da estrada enquanto tentava recuperá-lo do piso – naquele momento, o Tesla passou por uma placa de pare, luzes de advertência e placas de advertência indicando um cruzamento em T onde ele teve que virar à esquerda ou à direita. Em vez disso, o carro seguiu em frente, colidindo com um caminhão estacionado no acostamento com duas pessoas próximas. Um foi arremessado a 22 metros de altura e morreu; o outro sofreu “lesões graves e permanentes”, de acordo com o processo.
A reclamação continua explicando que o “Tesla Model S tinha um sistema de piloto automático que ainda estava em Beta, o que significa que não foi totalmente testado quanto à segurança e, além disso, o sistema não foi projetado para ser usado em estradas com tráfego cruzado ou interseções. No entanto, Tesla programou o sistema para que pudesse ser operado nessas áreas.” Além disso, alega: “A Tesla programou o Autopilot para permitir que fosse usado em estradas que Tesla sabia que não eram adequadas para seu uso e sabia que isso resultaria em colisões causando ferimentos e mortes de pessoas inocentes que não escolheram fazer parte da Tesla. experimentos”, incluindo as partes lesadas.
‘Tesla recusou-se a usar esta tecnologia por causa de despesas e estética’
Em uma ação judicial marcada para julgamento em fevereiro, sobre a morte de um motorista de um caminhão atropelado por um Tesla autônomo em Fremont, Califórnia, em 2019, um processo afirma que “a decisão consciente da Tesla de expor membros do público em geral a seus problemas defeituosos”. produto projetado é uma conduta desprezível. A Tesla tomou uma decisão consciente de fabricar, distribuir, comercializar, anunciar e vender um produto com design defeituoso que sabia que expunha o público em geral a um risco significativo de danos, puramente pelo desejo de maximizar os lucros.” Embora a denúncia acuse o motorista da Tesla de negligência, ela também alega que o uso de termos como “piloto automático” e “condução totalmente autônoma” pela empresa obscurece o fato de que todos os seus recursos de assistência ao motorista são apenas sistemas de nível 2, de acordo com a organização de padrões de engenharia. SAE International, oferecendo “suporte ao motorista” em vez de “condução automatizada” de sistemas de níveis superiores. Os veículos de nível 3 ou 4, observa o arquivamento, fazem uso de uma “combinação cara de câmeras, múltiplas unidades de radar e uma ou mais unidades de detecção e alcance de luz (‘LIDAR’)”, enquanto “Tesla se recusou a use esta tecnologia por causa do custo e da estética.”
Muitos desses processos, cobrindo acidentes em Nova York e Maryland, Texas e Indiana, referem-se a incidentes em anos em que os recursos de assistência ao motorista da Tesla ainda estavam em beta, o que significa que os motoristas estavam efetivamente se oferecendo para testá-los antes de um lançamento mais amplo. Essa é a base da alegação recorrente de que Tesla estava usando de forma imprudente outros motoristas e pedestres como cobaias sem o seu consentimento. “Ao contrário dos condutores destes veículos, John e Jane Q. Citizen nunca concordaram em inscrever-se para o teste beta”, diz Schreiber. “A Tesla criou uma circunstância onde, ao contrário de todos os outros grandes fabricantes automóveis desde o início dos tempos, eles testam a sua tecnologia em veículos de produção, em vez de fazerem o que é adequado (pesquisa e desenvolvimento) no front-end.”
O FSD saiu oficialmente da versão beta no início deste ano, com Tesla agora descrevendo-o como “Condução totalmente autônoma (supervisionada)” para destacar a importância da atenção do motorista. Ainda assim, o FSD – cuja versão presumivelmente irá operar o “robotáxi” de Musk – continua a ser uma tecnologia pouco fiável, inadequada para garantir a concentração do condutor e propensa a erros básicos e potencialmente catastróficos. Foi até demonstrado que falhou o teste de estrada do DMV da Califórnia para uma carteira de motorista.
Quanto ao evento robotaxi de quinta-feira, Schreiber diz que estará assistindo, “apenas porque faz parte da longa linha de veículos profundamente falhos e não prontos para o horário nobre da Tesla”. Quer se trate de um esforço legal contínuo para responsabilizar a Tesla por software supostamente inseguro ou de tentar acompanhar a última jogada de Musk para deslumbrar os acionistas, diz Schreiber, “é a mesma merda, uma pá diferente. É com isso que estamos lidando aqui.”