Testes de segurança mostram que veículos da Tesla falham 'repetidamente' na detecção de crianças

Estudos mostram que a tecnologia Beta ‘Full Self-Driving’ (FSD) da Tesla não reconhece crianças, aumentando ainda mais as preocupações sobre sua segurança à medida que a empresa a disponibiliza para mais usuários.

Primeiro , um teste de segurança realizado pelo ‘Dawn Project‘ (via The Guardian) descobriu que um Tesla Model 3 com FSD “bateu repetidamente em um manequim infantil de uma maneira que seria fatal para uma criança real.” O Dawn Project procura melhorar a segurança e a confiabilidade do software, interrompendo o uso de software de nível comercial em sistemas críticos de segurança.

Além disso, o investidor Taylor Ogan compartilharam um pequeno vídeo no Twitter mostrando uma comparação entre um Tesla e um veículo equipado com tecnologia LiDAR da Luminar – no vídeo, o Tesla atinge o manequim infantil enquanto o carro equipado com LiDAR consegue parar. Nos tweets de acompanhamento, Ogan critica a Tesla por não adotar a tecnologia LiDAR para seu software de veículo autônomo.

https://twitter.com/TaylorOgan/status/22724171?s=10&t=0ps_YGX3rMB0r1woK9vQ9Q

LiDAR, para aqueles que não estão familiarizados com o termo, refere-se à detecção e alcance de luz ou imagem, detecção e alcance a laser. A tecnologia permite determinar o alcance entre duas coisas, refletindo um laser em um objeto e medindo o tempo que leva para o laser retornar.

O teste do Projeto Dawn será formado parte de uma campanha publicitária destinada a incentivar o Congresso dos EUA a banir o FSD da Tesla.

https://twitter.com/RealDanODowd/ status/22724171?s=20&t=BZ100 TNfws_j8mwYdGqhQ7g

Tesla e CEO Elon Musk até agora contestaram as preocupações sobre a segurança do FSD. Ao mesmo tempo, a Administração Nacional de Segurança no Tráfego Rodoviário (NHTSA) dos EUA lançou investigações e solicitou informações à empresa sobre o FSD. Vale a pena notar que a Tesla também disponibilizou recentemente o FSD no Canadá.

Uma linha comum de defesa parece estar alegando que o FSD ainda requer assistência ao motorista e não é totalmente autônomo. E enquanto a Tesla afirma isso em seu site , o nome – Full Self-Driving – sugere o contrário. Além disso, a Tesla disponibilizou o software para milhares de proprietários de Tesla para uso em vias públicas, muitos dos quais usaram mal o FSD. A Tesla também atrasou ou puxou atualizações do FSD por causa de bugs e outros problemas várias vezes e até demitiu um funcionário que compartilhou um vídeo de falhas com o sistema FSD.

Há claras preocupações de segurança em jogo aqui, e os críticos destacaram essas preocupações na tentativa de fazer com que os governos regulamentem o uso de sistemas de direção autônoma em vias públicas até que os sistemas sejam mais seguros e confiáveis. Os fãs da Tesla responderam atacando esses críticos online, com um usuário do Twitter chegando a solicitar um criança voluntária para correr na frente de seu Tesla equipado com FSD para provar que ele vai parar.

https://twitter.com/SilvermanJacob/status/?s=20&t=5uSgvMgDs20T8-m09qw0pQ

“Prometo que não vou atropelá-los”, escreveu a pessoa. Sim, claro amigo.

Fonte: 1557377117226156032Projeto Dawn, Taylor Ogan (Twitter) Via: O guardião